Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Szybka litografia elektronowa o wysokiej rozdzielczości

Rekomendowane odpowiedzi

Najpopularniejszą techniką wykorzystywaną przy produkcji układów scalonych jest fotolitografia. problem jednak w tym, że długość fali światła ogranicza rozdzielczość tej techniki, a zatem ogranicza możliwości zmniejszania poszczególnych elementów.

Tymczasem do produkcji prototypowych układów wykorzystywana jest litografia elektronowa, która pozwala na uzyskanie większej rozdzielczości. Jej wadą jest natomiast znacznie mniejsza prędkość pracy niż przy fotolitografii. Co prawda można ją przyspieszyć, ale kosztem zmniejszenia rozdzielczości.

Dotychczas najdoskonalsza litografia elektronowa pozwalała na uzyskanie rozdzielczości rzędu 25 nanometrów, czyli niewiele większej od eksperymentalnej 32 nanometrów zaprezentowanej przez niektórych producentów urządzeń.

Tymczasem w MIT Research Laboratory of Electronic zaprezentowano szybką litografię elektronową, która pozwala na uzyskanie rozdzielczości 9 nanometrów. W połączeniu w innymi właśnie powstającymi technologiami pozwala to mieć nadzieję, że w przyszłości metoda ta będzie wykorzystywana w masowej produkcji układów scalonych.

Dotychczas rozdzielczość zwiększano stosując światło o coraz mniejszej długości fali. Pracuje się nad wykorzystaniem ekstremalnie dalekiego ultrafioletu. Jest to jednak trudne zadanie, gdyż konieczne jest dostosowywanie układów optycznych do coraz mniejszej długości fali, a same źródła takiego światła są bardzo mało wydajne.

Litografia polega, w skrócie, na pokryciu plastra krzemu światłoczułym materiałem tzw. fotorezystem i naświetleniu go według odpowiedniego wzorca. Tam, gdzie światło pada na fotorezyst, materiał zostanie utwardzony. Następnie usuwamy warstwy utwardzone bądź nieutwardzone, tworząc w ten sposób schemat połączeń.

Główna różnica pomiędzy litografią elektronową a fotolitografią jest taka, że w tej pierwszej metodzie układ scalony jest tworzony ścieżka po ścieżce, co wymaga bardzo dużo czasu. W fotolitografii światło pada przez odpowiednią maskę od razu na całą powierzchnię odpowiednio przygotowanego plastra krzemowego i za jednym razem tworzy wymagany wzór.

Litografię elektronową można przyspieszyć jeśli spowodujemy, by na fotorezyst padało mniej elektronów. Jednak mniej elektronów oznacza mniejszą energię promienia, a elektrony o niższej energii ulegają większemu rozproszeniu i jest ono tym bardziej widoczne, im głębiej w fotorezyst wnikają. Dlatego też podczas litografii elektronowej używa się generalnie wyższych energii, co jednak skutkuje wolniejszą pracą.

Magistraci Vitor Manfrinato, Lin Lee Cheong i Donald Winston we współpracy z profesorami Karlem Berggrenem i Henym Smithem, wykorzystali dwie sztuczki, które pozwoliły im na zmniejszenie energii strumienia elektronów.

Po pierwsze użyli cieńszej warstwy fotorezystu, co zmniejszyło rozpraszanie elektronów, a po drugie wykorzystali roztwór... soli kuchennej do utwardzenia tych regionów fotorezystu, które otrzymały nieco większą dawkę elektronów. Obszary, do których dotarło nieco mniej elektronów nie uległy utwardzeniu.

Profesor fizyki Pieter Kruit z Uniwersytetu Technologicznego w Delft i współzałożyciel firmy Mapper, która zbudowała system do litografii elektronowej składający się ze 110 równoległych źródeł elektronów, jest pod wrażeniem prac uczonych z MIT-u. Zauważa, że systemy o niższej energii są nie tylko szybsze, ale też mniejsze i łatwiejsze w budowie. W miarę zwiększania energii strumienia elektronów dochodzi się bowiem do takiego momentu, że całość staje się tak duża, a izolacji pomiędzy poszczególnymi elektrodami musi być tak wiele, że stworzenie takiego systemu jest niemożliwe.

Kruit wątpi jednocześnie, czy producenci układów scalonych wykorzystają dokładnie taki fotorezyst, jaki powstał na MIT. Jego zdaniem jest on nieco zbyt czuły. Ilość energii dostarczanej do elektrod urządzeń litograficznych nieznacznie się waha i przy zbyt czułym fotorezyście wahania te będą widoczne w wielkości podzespołów powstających na układzie scalonym. „Ale to kwestia niewielkiej modyfikacji fotorezystu, a jego producenci cały czas wprowadzają takie modyfikacje" - zauważa Kruit.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Co prawda można ją przyspieszyć, ale kosztem zwiększenia rozdzielczości.

:)

chyba powinno byc 'zmniejszenia'

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Na MIT powstały ogniwa fotowoltaiczne cieńsze od ludzkiego włosa, które na kilogram własnej masy wytwarzają 18-krotnie więcej energii niż ogniwa ze szkła i krzemu. Jeśli uda się skalować tę technologię, może mieć do olbrzymi wpływ produkcję energii w wielu krajach. Jak zwraca uwagę profesor Vladimir Bulivić z MIT, w USA są setki tysięcy magazynów o olbrzymiej powierzchni dachów, jednak to lekkie konstrukcje, które nie wytrzymałyby obciążenia współczesnymi ogniwami. Jeśli będziemy mieli lekkie ogniwa, te dachy można by bardzo szybko wykorzystać do produkcji energii, mówi uczony. Jego zdaniem, pewnego dnia będzie można kupić ogniwa w rolce i rozwinąć je na dachu jak dywan.
      Cienkimi ogniwami fotowoltaicznymi można by również pokrywać żagle jednostek pływających, namioty, skrzydła dronów. Będą one szczególnie przydatne w oddalonych od ludzkich siedzib terenach oraz podczas akcji ratunkowych.
      To właśnie duża masa jest jedną z przyczyn ograniczających zastosowanie ogniw fotowoltaicznych. Obecnie istnieją cienkie ogniwa, ale muszą być one montowane na szkle. Dlatego wielu naukowców pracuje nad cienkimi, lekkimi i elastycznymi ogniwami, które można będzie nanosić na dowolną powierzchnię.
      Naukowcy z MIT pokryli plastik warstwą parylenu. To izolujący polimer, chroniący przed wilgocią i korozją chemiczną. Na wierzchu za pomocą tuszów o różnym składzie nałożyli warstwy ogniw słonecznych i grubości 2-3 mikrometrów. W warstwie konwertującej światło w elektryczność wykorzystali organiczny półprzewodnik. Elektrody zbudowali ze srebrnych nanokabli i przewodzącego polimeru. Profesor Bulović mówi, że można by użyć perowskitów, które zapewniają większą wydajność ogniwa, ale ulegają degradacji pod wpływem wilgoci i tlenu. Następnie krawędzie tak przygotowanego ogniwa pomarowano klejem i nałożono na komercyjnie dostępną wytrzymałą tkaninę. Następnie plastik oderwano od tkaniny, a na tkaninie pozostały naniesione ogniwa. Całość waży 0,1 kg/m2, a gęstość mocy tak przygotowanego ogniwa wynosi 370 W/kg. Profesor Bulović zapewnia, że proces produkcji można z łatwością skalować.
      Teraz naukowcy z MIT planują przeprowadzenie intensywnych testów oraz opracowanie warstwy ochronnej, która zapewni pracę ogniw przez lata. Zdaniem uczonego już w tej chwili takie ogniwo mogłoby pracować co najmniej 1 lub 2 lata. Po zastosowaniu warstwy ochronnej wytrzyma 5 do 10 lat.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Fizycy z MIT opracowali kwantowy „ściskacz światła”, który redukuje szum kwantowy w laserach o 15%. To pierwszy taki system, który pracuje w temperaturze pokojowej. Dzięki temu możliwe będzie wyprodukowanie niewielkich przenośnych systemów, które będzie można dobudowywać do zestawów eksperymentalnych i przeprowadzać niezwykle precyzyjne pomiary laserowe tam, gdzie szum kwantowy jest obecnie poważnym ograniczeniem.
      Sercem nowego urządzenia jest niewielka wnęka optyczna znajdująca się w komorze próżniowej. We wnęce umieszczono dwa lustra, z których średnia jednego jest mniejsza niż średnica ludzkiego włosa. Większe lustro jest zamontowane na sztywno, mniejsze zaś znajduje się na ruchomym wsporniku przypominającym sprężynę. I to właśnie kształt i budowa tego drugiego, nanomechanicznego, lustra jest kluczem do pracy całości w temperaturze pokojowej. Wpadające do wnęki światło lasera odbija się pomiędzy lustrami. Powoduje ono, że mniejsze z luster, to na wsporniku zaczyna poruszać się w przód i w tył. Dzięki temu naukowcy mogą odpowiednio dobrać właściwości kwantowe promienia wychodzącego z wnęki.
      Światło lasera opuszczające wnękę zostaje ściśnięte, co pozwala na dokonywanie bardziej precyzyjnych pomiarów, które mogą przydać się w obliczeniach kwantowych, kryptologii czy przy wykrywaniu fal grawitacyjnych.
      Najważniejszą cechą tego systemu jest to, że działa on w temperaturze pokojowej, a mimo to wciąż pozwala na dobieranie parametrów z dziedziny mechaniki kwantowej. To całkowicie zmienia reguły gry, gdyż teraz będzie można wykorzystać taki system nie tylko w naszym laboratorium, które posiada wielkie systemy kriogeniczne, ale w laboratoriach na całym świecie, mówi profesor Nergis Mavalvala, dyrektor wydziału fizyki w MIT.
      Lasery emitują uporządkowany strumień fotonów. Jednak w tym uporządkowaniu fotony mają pewną swobodę. Przez to pojawiają się kwantowe fluktuacje, tworzące niepożądany szum. Na przykład liczba fotonów, które w danym momencie docierają do celu, nie jest stała, a zmienia się wokół pewnej średniej w sposób, który jest trudny do przewidzenia. Również czas dotarcia konkretnych fotonów do celu nie jest stały.
      Obie te wartości, liczba fotonów i czas ich dotarcia do celu, decydują o tym, na ile precyzyjne są pomiary dokonywane za pomocą lasera. A z zasady nieoznaczoności Heisenberga wynika, że nie jest możliwe jednoczesne zmierzenie pozycji (czasu) i pędu (liczby) fotonów.
      Naukowcy próbują radzić sobie z tym problemem poprzez tzw. kwantowe ściskanie. To teoretyczne założenie, że niepewność we właściwościach kwantowych lasera można przedstawić za pomocą teoretycznego okręgu. Idealny okrąg reprezentuje równą niepewność w stosunku do obu właściwości (czasu i liczby fotonów). Elipsa, czyli okrąg ściśnięty, oznacza, że dla jednej z właściwości niepewność jest mniejsza, dla drugiej większa.
      Jednym ze sposobów, w jaki naukowcy realizują kwantowe ściskanie są systemy optomechaniczne, które wykorzystują lustra poruszające się pod wpływem światła lasera. Odpowiednio dobierając właściwości takich systemów naukowcy są w stanie ustanowić korelację pomiędzy obiema właściwościami kwantowymi, a co za tym idzie, zmniejszyć niepewność pomiaru i zredukować szum kwantowy.
      Dotychczas optomechaniczne ściskanie wymagało wielkich instalacji i warunków kriogenicznych. Działo się tak, gdyż w temperaturze pokojowej energia termiczna otaczająca system mogła mieć wpływ na jego działanie i wprowadzała szum termiczny, który był silniejszy od szumu kwantowego, jaki próbowano redukować. Dlatego też takie systemy pracowały w temperaturze zaledwie 10 kelwinów (-263,15 stopni Celsjusza). Tam gdzie potrzebna jest kriogenika, nie ma mowy o niewielkim przenośnym systemie. Jeśli bowiem urządzenie może pracować tylko w wielkiej zamrażarce, to nie możesz go z niej wyjąć i uruchomić poza nią, wyjaśnia Mavalvala.
      Dlatego też zespół z MIT pracujący pod kierunkiem Nancy Aggarval, postanowił zbudować system optomechaczniczny z ruchomym lustrem wykonanym z materiałów, które absorbują minimalne ilości energii cieplnej po to, by nie trzeba było takiego systemu chłodzić. Uczeni stworzyli bardzo małe lustro o średnicy 70 mikrometrów. Zbudowano je z naprzemiennie ułożonych warstw arsenku galu i arsenku galowo-aluminowego. Oba te materiały mają wysoce uporządkowaną strukturę atomową, która zapobiega utratom ciepła. Materiały nieuporządkowane łatwo tracą energię, gdyż w ich strukturze znajduje się wiele miejsc, gdzie elektrony mogą się odbijać i zderzać. W bardziej uporządkowanych materiałach jest mniej takich miejsc, wyjaśnia Aggarwal.
      Wspomniane wielowarstwowe lustro zawieszono na wsporniku o długości 55 mikrometrów. Całości nadano taki kształt, by absorbowała jak najmniej energii termicznej. System przetestowano na Louisiana State University. Dzięki niemu naukowcy byli w stanie określić kwantowe fluktuacje liczby fotonów względem czasu ich przybycia do lustra. Pozwoliło im to na zredukowanie szumu o 15% i uzyskanie bardziej precyzyjnego „ściśniętego” promienia.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Podczas Fifth International Symposium on Networks-on-Chip 2011 specjaliści z MIT-u zdobyli nagrodę za najlepsze opracowanie naukowe symulatora układu scalonego. Ich program Hornet modeluje działanie wielordzeniowego procesora znacznie lepiej niż inne tego typu oprogramowanie. Potrafił znaleźć w oprogramowaniu błędy, których inne symulatory nie zauważyły.
      Teraz Hornet został znakomicie udoskonalony i wyposażony w nowe funkcje. Jego nowa wersja potrafi symulować zużycie energii, komunikację między rdzeniami, interakcję pomiędzy CPU a pamięcią oraz obliczyć czas potrzebny na wykonanie poszczególnych zadań.
      Symulatory są niezwykle ważne dla firm produkujących układy scalone. Zanim przystąpi się do produkcji kości przeprowadzane są liczne testy ich działania na symulatorach.
      Dotychczasowe symulatory przedkładały szybkość pracy nad dokładność. Nowy Hornet pracuje znacznie wolniej niż jego starsze wersje, jednak dzięki temu pozwala na symulowanie 1000-rdzeniowego procesora z dokładnością do pojedynczego cyklu. Hornet jest nam w stanie wyliczyć, że ukończenie konkretnego zadania będzie np. wymagało 1.223.392 cykli - mówi Myong Cho, doktorant z MIT-u.
      Przewaga Horneta nad konkurencją polega też na tym, że inne symulatory dobrze oceniają ogólną wydajność układu, mogą jednak pominąć rzadko występujące błędy. Hornet daje większą szansę, że zostaną one wyłapane.
      Podczas prezentacji Cho, jego promotor profesor Srini Devadas i inni studenci symulowali na Hornecie sytuację, w której wielordzeniowy procesor korzysta z nowej obiecującej techniki przetwarzania danych pacjentów. Hornet zauważył, że niesie ona ze sobą ryzyko wystąpienia zakleszczenia, czyli sytuacji, w której różne rdzenie, aby zakończyć prowadzone obliczenia, czekają nawzajem na dane od siebie. Powoduje to, że zadania nie mogą być zakończone, gdyż rdzenie nawzajem siebie blokują. Żaden inny symulator nie zasygnalizował tego problemu. Hornet pozwolił też na przetestowanie zaproponowanego przez naukowców sposobu na uniknięcie zakleszczenia.
      Zdaniem jego twórców Hornet, ze względu na swoje powolne działanie, posłuży raczej do symulowania pewnych zadań, a nie działania całych aplikacji. Przyda się zatem tam, gdzie zajdzie potrzeba upewnienia się, czy nie występują żadne nieprawidłowości czy też do statystycznego zbadania możliwości wystąpienia błędów.
    • przez KopalniaWiedzy.pl
      Studenci najsłynniejszej uczelni technicznej świata - MIT-u (Massachusetts Institute of Technology) - mogą otrzymać od władz uczelni certyfikat ukończenia kursu... piractwa. I nie chodzi tutaj o piractwo komputerowe, a to prawdziwe, morskie.
      Uczelnia postanowiła uczynić oficjalnym zwyczaj, który był praktykowany przez jej studentów przez co najmniej 20 lat. MIT wymaga, by uczący się ukończyli w czasie studiów co najmniej 4 różne kursy wychowania fizycznego. Teraz ci, którzy z powodzeniem ukończą strzelanie z pistoletu, łuku, żeglarstwo i szermierkę otrzymają oficjalny certyfikat
      Carrie Sampson Moore, dziekan wydziału wychowania fizycznego, mówi, że co roku kontaktowali się z nią studenci, prosząc o wydanie zaświadczenia o ukończeniu kursu pirata. Zawsze mówiłam im, że to inicjatywa studencka i byli bardzo rozczarowani - stwierdziła Moore.
      Od początku bieżącego roku postanowiono, że uczelnia zacznie wydawać oficjalne certyfikaty. Drukowane są one na zwoju pergaminu z równą starannością jak inne uczelniane dyplomy. Właśnie otrzymało je czterech pierwszych piratów, a w kolejce czekają następni.
      Mimo, iż cała ta historia może brzmieć niepoważnie, to certyfikat i warunki jego uzyskania są traktowane przez uczelnię całkiem serio. Przyszli piraci nie mogą liczyć na żadną taryfę ulgową, a otrzymanie świadectwa ukończenia kursu wiąże się ze złożeniem przysięgi. Stephanie Holden, która znalazła się w czwórce pierwszych piratów, zdradziła, że musiała przysiąc, iż ucieknie z każdej bitwy, której nie będzie mogła wygrać i wygra każdą bitwę, z której nie będzie mogła uciec.
    • przez KopalniaWiedzy.pl
      Jak dowiadujemy się z książki Case, Argument Structure and Word Order autorstwa profesora Shigeru Miyagawy, lingwisty z MIT-u, języki są znacznie bardziej podobne, niż się nam wydaje.

      W języku angielskim znalezienie dopełnienia bliższego jest stosunkowo proste. Występuje ono zaraz przy czasowniku. W zdaniu „I gave a book to Mary“ (Dałem książkę Marysi) dopełnienie bliższe „book“ znajdziemy przy czasowniku „gave“, a dopełnienie dalsze „Mary“ jest od niego oddalone. Inaczej jednak ma się sprawa z językiem japońskim, którego szyk jest znacznie bardziej luźny. Tam dopełnienie bliższe oznaczone jest przyrostkiem -o. W zdaniu „Taroo-wa hon-o kinoo katta“ porządek wyrazów jest następujący - „Taro książkę wczoraj kupił“. „Książka“ (hon-o) jest dopełnieniem bliższym, jednak nie sąsiaduje ono z wyrazem „kupił“ (katta).

      Dla kogoś uczącego się języka, szczególnie gdy w jego rodzinnym języku szyk zdania jest bardziej sztywny niż w japońskim, może być to poważnym problemem. Japoński i angielski wydają się bardzo różnić od siebie. Jednak profesor Miyagawa dowodzi, że z punktu widzenia lingwisty różnice nie są aż tak wielkie.

      Mamy do czynienia z interesującym napięciem pomiędzy różnicami a podobieństwami. Ludzkie języki są zadziwiająco różne. Każdy z nich ma unikalne właściwości odróżniające go od 6500 czy 7000 innych języków. Jeśli jednak spojrzymy na nie z punktu widzenia lingwisty zauważymy, że istnieją właściwości wspólne wszystkim językom.

      Uczony wykazuje w swojej książce, że pomiędzy angielskim a japońskim następuje rodzaj pewnej wymiany. Japoński i angielski przyjmują reguły, które drugi język porzucił. Miyagawa zauważył, że w VIII i IX wieku w japońszczyźnie przyrostek -o nie był używany na oznaczenie dopełnienia bliższego. Używano go do oznaczania emfazy. W tym samym czasie język angielski używał znaków gramatycznych (takich jak obecny dopełniacz saksoński) na oznaczenie dopełnienia bliższego występującego w bierniku. Ponadto szyk zdania był znacznie bardziej luźny niż we współczesnym angielskim. Dopełnienie bliższe mogło pojawić się w wielu miejscach zdania.

      Patrząc z punktu widzenia gramatyki stary japoński jest jak współczesny angielski. A stary angielski i łacina są jak współczesny japoński, stwierdza Miyagawa. Do takiej „wymiany zasad“ pomiędzy japońskim a angielskim dochodziło, gdy języki te nie miały ze sobą żadnej styczności, zatem nie można zjawiska tego tłumaczyć wzajemnym wpływem.

      Znalezienie takich wzorców jest bardzo trudne. Wiele z nich wymaga bowiem szczegółowych wieloletnich badań. Profesor Miyagawa zawarł w książce wyniki swojej 30-letniej pracy naukowej oraz przegląd prac innych autorów. Jego spostrzeżenia zostały wzmocnione niedawno opublikowaną pracą Yuko Yanagidy z Tsukuba University. Również ona zauważyła, że w starym japońskim występuje sposób oznaczania dopełnienia bliższego, który jest podobny do metody używanej czasem we współczesnym angielskim. W jednej z fraz występuje bowiem połączenie dopełnienia bliższego i czasownika „tuki-sirohu“, co przypomina np. współczesne angielskie „bird-watching“, a podobną konstrukcję można znaleźć w języku Czukczów „qaa-tym-ge“..

      Szczególnie zadowoleni z książki Miyagawy są lingwiści badający ewolucję języków. Niezbyt wiele języków zachowało historyczne zapiski i tylko niektóre z nich przydają się do badania zmian. Większość takich jeżyków to języki indoeuropejskie. Dobrze przeprowadzona analiza zmian w języku japońskim jest zatem niezwykle cenna - powiedział David Lightfood z Georgetown University.

      Miyagawa zauważył też inne podobieństwa. Na przykład w języku japońskim występuje, podobnie jak i w angielskim tzw. „efekt blokujący“. Polega on na tym, że np. w angielskim można zastąpić wyraz „curious“ wyrazem „curiosity“, ale nie można zastąpić wyrazu „glorious“ słowem „gloriosity“. Dzieje się tak, gdyż istnieje wyraz „glory“. W japońskim efekt blokujący występuje na bardzo szeroką skalę. Nikt jednak nie przeprowadził wcześniej takiego porównania - mówi Miyagawa.

      Pracę profesora chwali też John Whitman z Cornell University. Lingwiści mają tendencję do myślenia, że ich własny język zawsze stosował się do tych samych podstawowych reguł. Ale Shigeru Miyagawa wykazał, że japoński sprzed 1000 lat był różny od współczesnego języka - mówi. Jego zdaniem kolejnym krokiem w tego typu badaniach powinno być podzielenie badanych okresów na mniejsze części. Miyagawa pokazał zmiany na przestrzeni setek lat. Warto byłoby zobaczyć, jak zmienia się język np. co 50 lat.
       
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...