Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

W miarę postępu miniaturyzacji pojawiają się kolejne problemy związane z produkcją coraz mniejszych elementów oraz zapewnieniem ich bezproblemowej pracy. Jakiś czas temu zauważono, że przy pewnym stopniu miniaturyzacji pojawiają się problemy związane z... oddziaływaniem promieniowania kosmicznego. Docierające z kosmosu na Ziemię cząsteczki powodują błędy w pracy układów scalonych.

Fujitsu Laboratories oraz należące do japońskiego Narodowego Instytutu Nauk Naturalnych obserwatorium astronomiczne na Hawajach pracują nad techniką szybkiego i dokładnego obliczania częstotliwości występowania takich błędów. Ta będzie zależała m.in. od szerokości geograficznej czy wysokości nad poziomem morza. Dzięki pracom Japończyków producenci układów scalonych będą mogli opracować techniki chroniące je przed występowaniem błedow.

Fujitsu wykorzystuje dane z teleskopu Subaru, umieszczonego na szczycie Mauna Kea. Dociera tam 10-krotnie więcej neutronów niż do miejsca położonego na powierzchni morza. Naukowcy mogą więc obliczyć energię neutronów oraz opracować dane statystyczne dotyczące częstotliwości występowania błędów.

Dane z Hawajów porównano z informacjami z Tokio i okazało się, że w stolicy Japonii do pomieszczeń wewnątrz budynków dociera 16-krotnie mniej neutronów. Gdy uwzględniono neutrony zatrzymane przez ściany, okazało się, że Tokio jest bombardowane 7,4-mniejszą liczbą cząstek niż szczyt Mauna Kea.

Naukowcy na Hawajach zmierzyli też, że w 1024 układach SRAM wykonanych w technologii 90 nanometrów w ciągu 2400 godzin wystąpiło 36 błędów spowodowanych promieniowaniem kosmicznym. Z tego wynika, że w Tokio tyle samo błędów wystąpiłoby w ośmiokrotnie dłuższym czasie.

Japończycy pracują teraz nad przystosowaniem swoich narzędzi do pomiarów liczby błędów w układach wykonanych w technologiach 65, 42 i 32 nanometrów.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Docierające z kosmosu na Ziemię cząsteczki powodowują błędy w pracy układów scalonych.

[move]Powodowują powiadasz? ;)[/move]

Popraw i usuń mój ten wpis. ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Grupa astronomów z University of Texas at Austin doszła do wniosku, że wybudowany na Księżycu teleskop – pomysł, który NASA zarzuciła dekadę temu – może rozwiązać problemy, z którymi inne teleskopy sobie nie poradzą. Księżycowy teleskop mógłby bowiem dostrzec pierwsze gwiazdy, które powstały we wszechświecie. Zespół, na którego czele stoi Anna Schauer pracująca przy Teleskopie Hubble'a, opublikuje wyniki swoich badań w The Astrophysical Journal.
      Historia astronomii to coraz potężniejsze teleskopy, które pozwalają nam dostrzec obiekty coraz bliżej Wielkiego Wybuchu, mówi profesor Volker Bromm, astrofizyk-teoretyk, który od dziesięcioleci bada pierwsze gwiazdy. Teleskop Kosmiczny Jamesa Webba (JWST) pozwoli nam zobaczyć pierwsze galaktyki. Jednak teorie mówią, że zanim powstały pierwsze galaktyki istniały gwiazdy III populacji. Ich dostrzeżenie jest nawet poza zasięgiem JWST. Do ich badań potrzebujemy jeszcze potężniejszego urządzenia.
      Pierwsze gwiazdy powstały około 13 miliardów lat temu. Narodziły się z połączenia wodoru oraz helu i prawdopodobnie były nawet 100-krotnie większe od Słońca. Nowe obliczenia wykonane przez Schauer pokazują, że teleskop, którego projekt NASA porzuciła przed dekadą, mógłby badać te gwiazdy. W roku 2008 zespół Rogera Angela z University of Arizona zaproponował zbudowanie na Księżycu urządzenia o nazwie Lunar Liquid-Mirror Telescope (LLMT). NASA przeprowadziła analizy dotyczące zasadności budowy takiego teleskopu i zrezygnowała z projektu. Jak zauważa Niv Drory z McDonald Obserwatory, wówczas jednak nie istniała nauka dotycząca najwcześniejszych gwiazd. Obecnie wiele wskazuje na to, że taki teleskop mógłby je badać.
      Potencjalne księżycowe laboratorium, nazwane przez Shauer „Ultimately Large Telescope”, miałoby średnicę 100 metrów. Teleskop działałby autonomicznie, byłby zasilany przez zbudowaną obok elektrownię fotowoltaiczną i przesyłałby dane do satelity na orbicie Księzyca.
      Lustro takiego teleskopu nie byłoby wykonane ze szkła, ale z płynu, który jest lżejszy, zatem jego transport na Księżyc byłby tańszy. Teleskop byłby obracającą się kadzią wypełnioną płynem, na powierzchni którego znajdowałby się metaliczny płyn. Mogłaby to być np. rtęć. Kadź bez przerwy by się obracała, by nadać powierzchni płynu odpowiedni paraboliczny kształt, dzięki czemu działałaby ona jak lustro paraboliczne. Autorzy najnowszego studium mówią, że teleskop taki mógłby powstać w kraterze na północnym lub południowym biegunie księżyca.
      Żyjemy w świecie pełnym gwiazd. Kluczowym pytaniem jest więc to o utworzenie się pierwszych gwiazd. Ich powstanie było bowiem kluczowym elementem w historii wszechświata, kiedy to pierwotne warunki panujące po Wielkim Wybuchu prowadziły do coraz bardziej złożonej budowy kosmosu, a z czasem umożliwiły powstanie planet, życia oraz istot inteligentnych. Moment powstania pierwszych gwiazd jest poza możliwościami obserwacyjnymi obecnych lub planowanych już teleskopów. Dlatego też musimy pomyśleć o urządzeniu, które pozwoli nam na obserwacje pierwszych gwiazd u zarania dziejów, mówi Bromm.
      Warto w tym miejscu przypomnieć, że niedawno pisaliśmy iż NASA chce wiedzieć, czy roboty mogą wybudować na Księżycu gigantyczny radioteleskop.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Gavin Thomas, który w Microsofcie sprawuje funkcję Principal Security Engineering Manager, zasugerował, że ze względów bezpieczeństwa czas porzucić języki C i C++. Thomas argumentuje na blogu Microsoftu, że rezygnacja ze starszych języków na rzecz języków bardziej nowoczesnych pozwoli na wyeliminowanie całej klasy błędów bezpieczeństwa.
      Od 2004 roku każdy błąd naprawiony w oprogramowaniu Microsoftu jest przez nas przypisywany do jednej z kategorii. Matt Miller podczas konferencji Blue Hat w 2019 roku zauważył, że większość tych dziur powstaje wskutek działań programistów, którzy przypadkowo wprowadzają do kodu C i C++ błędy związane z zarządzeniem pamięcią. Problem narasta w miarę jak Microsoft tworzy coraz więcej kodu i coraz silniej zwraca się w stronę oprogramowania Open Source. A Microsoft nie jest jedyną firmą, która ma problemy z błędami związanymi  z zarządzaniem pamięcią, pisze Thomas.
      W dalszej części swojego wpisu menedżer wymienia liczne zalety C++, ale zauważa, że język ten ma już swoje lata i pod względem bezpieczeństwa czy metod odstaje od nowszych języków. Zamiast wydawać kolejne zalecenia i tworzyć narzędzia do walki z błędami, powinniśmy skupić się przede wszystkim na tym, by programiści nie wprowadzali błędów do kodu, czytamy.
      Dlatego też Thomas proponuje porzucenie C++. Jednym z najbardziej obiecujących nowych języków programistycznych zapewniających bezpieczeństwo jest Rust, opracowany oryginalnie przez Mozillę. Jeśli przemysł programistyczny chce dbać o bezpieczeństwo, powinien skupić się na rozwijaniu narzędzi dla developerów, a nie zajmować się tymi wszystkimi pobocznymi sprawami, ideologią czy przestarzałymi metodami i sposobami rozwiązywania problemów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Niedawno donosiliśmy o wynikach badań, z których wynika, że oceany ogrzały się bardziej niż dotychczas sądziliśmy. Teraz ich autorzy informują, że popełnili błąd w obliczeniach. Podkreślają przy tym, że pomyłka nie falsyfikuje użytej metodologii czy nowego spojrzenia na biochemię oceanów, na których metodologię tę oparto. Oznacza jednak, że konieczne jest ponowne przeprowadzenie obliczeń.
      Jak mówi współautor badań, Ralph Keeling, od czasu publikacji wyników badań w Nature, ich autorzy zauważyli dwa problemy. Jeden z nich związany jest z nieprawidłowym podejściem do błędów pomiarowych podczas mierzenia poziomu tlenu. Sądzimy, że łączy efekt tych błędów będzie miał niewielki wpływ na ostateczny wynik dotyczący ilości ciepła pochłoniętego przez oceany, ale wynik ten będzie obarczony większym marginesem błędu. Właśnie prowadzimy ponowne obliczenia i przygotowujemy się do opublikowania autorskiej poprawki na łamach Nature, stwierdza Keeling.
      Redakcja Nature również postanowiła pochylić się nad problemem. Dla nas, wydawców, dokładność publikowanych danych naukowych ma zasadnicze znaczenie. Jesteśmy odpowiedzialni za skorygowanie błędów w artykułach, które opublikowaliśmy, oświadczyli przedstawiciele pisma.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Sędzia Judith Potter orzekła, że sądowy nakaz zajęcia pieniędzy, pojazdów i posiadłości Kima Dotcoma jest nieważny,i nie powinien zostać wydany i nie niesie ze sobą skutków prawnych.
      Właściciel Megaupload może zatem spodziewać się, że jego własność zostanie mu zwrócona, a konta odblokowane, gdyż policja i prawnicy z rządowego biura prawnego popełnili poważny błąd proceduralny.
      Sędzie Potter stwierdziła, że komisarz Peter Marshall złożył do sądu wniosek o taki typ nakazu zajęcia majątku, który nie dawał Dotcomowi możliwości przygotowania obrony. Już po policyjnej akcji i aresztowaniu Dotcoma Marshall zorientował się, że popełnił pomyłkę i wystąpił o właściwy nakaz. Został on wydany, ale tylko tymczasowo. Dlatego też sędzia Potter wkrótce będzie musiała orzec, czy błąd policji oznacza, iż Dotcomowi należy zwrócić majątek.
      Już 30 stycznia do sądu trafiła informacja z rządowego biura prawnego, które przygotowuje takie wnioski, iż popełniono błąd proceduralny.
      Jako, że sąd wydał wspomniany już właściwy nakaz, śledczy twierdzą, że dowodzi to, iż pierwotna pomyłka niczego nie zmienia. Innego zdania są obrońcy Dotcoma. Ich zdaniem majątek mężczyzny powinien zostać mu zwrócony, gdyż został zajęty bezprawnie.
      Profesor Ursula Cheer z Canterbury University mówi, że prawo dopuszcza pomyłki, a powyższa sprawa może stać się drugim poważnym zwycięstwem Dotcoma - pierwszym było jego zwolnienie z aresztu - pod warunkiem, iż jego prawnicy udowodnią policji złą wolę.
    • przez KopalniaWiedzy.pl
      IBM pokaże dzisiaj prototypowy optyczny układ scalony „Holey Optochip“. To pierwszy równoległy optyczny nadajnik-odbiornik pracujący z prędkością terabita na sekundę. Urządzenie działa zatem ośmiokrotnie szybciej niż inne tego typu kości. Układ pozwala na tak szybki transfer danych, że mógłby obsłużyć jednocześnie 100 000 typowych użytkowników internetu. Za jego pomocą można by w ciągu około godziny przesłać zawartość Biblioteki Kongresu USA, największej biblioteki świata.
      Holey Optochip powstał dzięki wywierceniu 48 otworów w standardowym układzie CMOS. Dało to dostęp do 24 optycznych nadajników i 24 optycznych odbiorników. Przy tworzeniu kości zwrócono też uwagę na pobór mocy. Jest on jednym z najbardziej energooszczędnych układów pod względem ilości energii potrzebnej do przesłania jednego bita informacji. Holey Optochip potrzebuje do pracy zaledwie 5 watów.
      Cały układ mierzy zaledwie 5,2x5,8 mm. Odbiornikami sygnału są fotodiody, a nadajnikami standardowe lasery półprzewodnikowe VCSEL pracujące emitujące światło o długości fali 850 nm.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...