Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Opublikowano kolejną edycję listy TOP500, czyli zestawienia 500 najpotężniejszych superkomputerów świata. W bieżącej edycji nie znalazł się jeszcze, co zrozumiałe, Blue Gene/P, o którym pisaliśmy wczoraj. Numerem 1. wciąż więc jest Blue Gene/L.

Na liście zaszły znaczne zmiany, szczególnie w czołówce. Swoją pozycję umocniła firma Cray, której superkomputery zajęły 2. i 3. miejsce.

Jedną z ciekawych zmian jest fakt, że w czołowej 500 znalazły się dwie maszyny wykorzystujące Windows Compute Cluster Server 2003. Dotychczas na superkomputerach spotykane były pojedyncze instalacje systemów Windows 2000 czy Windows Server 2003. Nie cieszyły się one zbytnią popularnością o czym świadczy chociażby fakt, że na liście z października 2006 nie było już żadnego superkomputera z systemem Microsoftu. Windows Compute Cluster Server 2003 to pierwszy system z Redmond, który powstał z myślą o najbardziej wydajnych maszynach. Najbliższe edycje listy (publikowana jest ona co pół roku), powinny pokazać nam, czy Microsoft ma szanse na zaistnienie na rynku superkomputerów.

Niekwestionowanym liderem zestawienia systemów operacyjnych dla superkomputerów jest jednak Linux, który zainstalowano na 77,8% maszyn z TOP500. Drugie miejsce zajmuje Unix (12%).

Maszyna, aby zostać wpisaną na obecną listę musi charakteryzować się wydajnością co najmniej 4,005 teraflopsa. Jeszcze pół roku temu wystarczyło 2,737 TFlops. Co więcej, komputer, który obecnie znajduje się na miejscu 500. przed sześcioma miesiącami zająłby 216. pozycję. To największy skok w 15-letniej historii projektu TOP500. Bardzo dobrze świadczy to ogromnym zapotrzebowaniu na moce obliczeniowe i przyspieszeniu prac nad superkomputerami.

Łączna moc obliczeniowa 500 maszyn z listy wyniosła 4,92 petaflopsa. To dużo więcej niż 3,54 PFlops sprzed pół roku. Jednocześnie pokazuje nam jak olbrzymią mocą charakteryzuje się najnowszy superkomputer IBM-a – Blue Gene/P.

Najpopularniejszymi procesorami wykorzystywanymi do budowy superkomputerów są układy Intela. Zastosowano je na 289 maszynach (57,9%). Pół roku temu do Intela „należało” 261 superkomputerów (52,5%). Rynek straciło zarówno AMD (105 systemów czyli 21% obecnie, a 113 systemów i 22,6% przed pół roku) oraz IBM (teraz 85 superkomputerów i 17-procentowy udział, wcześniej 93 maszyny i 18,6% rynku).

Rynek superkomputerów zdominowały procesory dwurdzeniowe. Olbrzymim sukcesem mogą pochwalić się Woodcresty Intela. Jeszcze sześć miesięcy temu wykorzystano je jedynie w 31 maszynach, teraz są obecne w 205 systemach. Wzrosły też udziały dwurdzniowych Opteronów AMD, z 75 do 90 komputerów.

Największym producentem pod względem liczby maszyn na TOP500 jest HP. Na liście znajdują się 202 (40,4%) komputerów tego wytwórcy. Drugie miejsce, ze 192 (38,4%) systemami zajął IBM. Inni producenci, jak Dell (23 maszyny), SGI (19) czy Cray (11) nie przekroczyli 5%.

Z kolei liderem listy ułożonej pod względem wydajności zainstalowanych maszyn pozostaje IBM. W sumie wszystkie superkomputery tego producenta dostarczają 41,9% (pół roku temu było to 49,5%) mocy wszystkich 500 maszyn. Drugie miejsce (24,5% mocy, wzrost z 16,5%) zajął HP.

Najwięcej superkomputerów znajduje się w USA. Stoi tam 281 najpotężniejszych maszyn na świecie.

Na drugim miejscu z 42 maszynami uplasowała się Wielka Brytania, a na trzecim Niemcy, które posiadają 24 komputery z listy TOP500. Po jednym superkomputerze mają Indonezja, Nowa Zelandia, Filipiny, RPA, Turcja, Zjednoczone Emiraty Arabskie i Wietnam. Żaden z polskich superkomputerów nie dostał się na listę.

Poniżej przedstawiamy 10 najpotężniejszych maszyn z TOP500:

LP
Właściciel komputera i kraj
Nazwa i producent
Procesory
Wydajność (GFlops)
Wydajność szczytowa
(GFlops)
1
Lawrence Livermoore National Laboratory
USA
Blue Gene/L
IBM
131072
280600
367000
2
Oak Ridge National Laboratory
USA
Jaguar
Cray
23016
101700
119350
3
Sandia National Laboratories
USA
Red Storm
Cray
36544
101400
127411
4
IBM Thomas J. Watson Research Center
USA
BGW
IBM
40960
91290
114688
5
New York Center for Computational Sciences
USA
New York Blue
IBM
36864
82161
103219
6
Lawrence Livermoore National Laboratory
USA
ASC Purple
IBM
12208
75760
92781
7
Rensselaer Polytechnic Institute
USA
eServer Blue Gene Solution
IBM
32768
73032
91750
8
NCSA
USA
Abe
Dell
9600
62680
89587
9
Centro Nacional de Supercomputación
Hiszpania
Mare Nostrum
IBM
10240
62630
94208
10
Leibniz Rechenzentrum
Niemcy
HLRB II
SGI
9728
56520
62259

1 GFlops = 1 miliard operacji zmiennoprzecinkowych na sekundę.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Unia Europejska kończy przygotowania do stworzenia „cyfrowego bliźniaka” Ziemi, za pomocą którego z niespotykaną dotychczas precyzją będzie można symulować atmosferę, oceany, lądy i kriosferę. Ma to pomóc zarówno w tworzeniu precyzyjnych prognoz pogody, jak i umożliwić przewidywanie wystąpienia susz, pożarów czy powodzi z wielodniowym, a może nawet wieloletnim wyprzedzeniem.
      Destination Earth, bo tak został nazwany projekt, będzie miał też za zadanie przewidywanie zmian społecznych powodowanych przez pogodę czy klimat. Ma również pozwolić na ocenę wpływ różnych polityk dotyczących walki ze zmianami klimatu.
      Destination Earth ma pracować z niespotykaną dotychczas rozdzielczością wynoszącą 1 km2. To wielokrotnie więcej niż obecnie wykorzystywane modele, dzięki czemu możliwe będzie uzyskanie znacznie bardziej dokładnych danych. Szczegóły projektu poznamy jeszcze w bieżącym miesiącu, natomiast sam projekt ma zostać uruchomiony w przyszłym roku i będzie działał na jednym z trzech superkomputerów, jakie UE umieści w Finlandii, Włoszech i Hiszpanii.
      Destination Earth powstała na bazie wcześniejszego Extreme Earth. Program ten, o wartości miliarda euro, był pilotowany przez European Centre for Medium-Range Weather Forecests (ECMWF). UE zlikwidowała ten program, jednak była zainteresowana kontynuowaniem samego pomysłu. Tym bardziej, że pojawiły się obawy, iż UE pozostanie w tyle w dziedzinie superkomputerów za USA, Chinami i Japonią, więc w ramach inicjatywy European High-Performance Computing Joint Undertaking przeznaczono 8 miliardów euro na prace nad eksaskalowym superkomputerem. Mają więc powstać maszyny zdolne do obsłużenia tak ambitnego projektu jak Destination Earth. Jednocześnie zaś Destination Earth jest dobrym uzasadnieniem dla budowy maszyn o tak olbrzymich mocach obliczeniowych.
      Typowe modele klimatyczne działają w rozdzielczości 50 lub 100 km2. Nawet jeden z czołowych modeli, używany przez ECMWF, charakteryzuje się rozdzielczością 9 km2. Wykorzystanie modelu o rozdzielczości 1 km2 pozwoli na bezpośrednie renderowanie zjawiska konwekcji, czyli pionowego transportu ciepła, które jest krytyczne dla formowania się chmur i burz. Dzięki temu można będzie przyjrzeć się rzeczywistym zjawiskom, a nie polegać na matematycznych przybliżeniach. Destination Earth ma być też tak dokładny, że pozwoli na modelowanie wirów oceanicznych, które są ważnym pasem transmisyjnym dla ciepła i węgla.
      W Japonii prowadzono już testy modeli klimatycznych o rozdzielczości 1 km2. Wykazały one, że bezpośrednie symulowane burz i wirów pozwala na opracowanie lepszych krótkoterminowych prognoz pogody, pozwala też poprawić przewidywania dotyczące klimatu w perspektywie miesięcy czy lat. Jest to tym bardziej ważne, że niedawne prace wykazały, iż modele klimatyczne nie są w stanie wyłapać zmian we wzorcach wiatrów, prawdopodobnie dlatego, że nie potrafią odtworzyć burz czy zawirowań.
      Modele o większej rozdzielczości będą mogły brać pod uwagę w czasie rzeczywistym informacje o zanieczyszczeniu powietrza, szacie roślinnej, pożarach lasów czy innych zjawiskach, o których wiadomo, że wpływają na pogodę i klimat. Jeśli jutro dojdzie do erupcji wulkanicznej, chcielibyśmy wiedzieć, jak wpłynie ona na opady w tropikach za kilka miesięcy, mówi Francisco Doblas-Reyes z Barcelona Supercomputing Center.
      Tak precyzyjny model byłby w stanie pokazać np. jak subsydiowanie paliw roślinnych wpływa na wycinkę lasów Amazonii czy też, jak zmiany klimatu wpłyną na ruch migracyjne ludności w poszczególnych krajach.
      Działanie na tak precyzyjnym modelu będzie wymagało olbrzymich mocy obliczeniowych oraz kolosalnych możliwości analizy danych. O tym, jak poważne to zadanie, niech świadczy następujący przykład. W ubiegłym roku przeprowadzono testy modelu o rozdzielczości 1 kilometra. Wykorzystano w tym celu najpotężniejszy superkomputer na świecie, Summit. Symulowano 4 miesiące działania modelu. Testujący otrzymali tak olbrzymią ilość danych, że wyodrębnienie z nich użytecznych informacji dla kilku symulowanych dni zajęło im... pół roku. Obecnie w tym tkwi najpoważniejszy problem związany z modelami pogodowymi i klimatycznymi w wysokiej rozdzielczości. Analiza uzyskanych danych zajmuje bardzo dużo czasu. Dlatego też jednym z najważniejszych elementu projektu Destination Earth będzie stworzenie modelu analitycznego, który dostarczy użytecznych danych w czasie rzeczywistym.
      Destination Earth będzie prawdopodobnie pracował w kilku trybach. Na co dzień będzie się prawdopodobnie zajmował przewidywaniem wpływu ekstremalnych zjawisk atmosferycznych na najbliższe tygodnie i miesiące. Co jakiś czas, być może raz na pół roku, zajmie się długoterminowymi, obejmującymi dekady, prognozami zmian klimatycznych.
      Nie tylko Europa planuje tworzenie precyzyjnych modeli klimatycznych przy użyciu eksaskalowych superkomputerów. Też zmierzamy w tym kierunku, ale jeszcze nie zaangażowaliśmy się to tak mocno, przyznaje Ruby Leung z Pacific Northwest National Laboratory, który jest głównym naukowcem w prowadzonym przez amerykański Departament Energii projekcie modelowania systemu ziemskiego.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W latach 30. XX wieku Stany Zjednoczone doświadczyły Dust Bowl. Był to kilkuletni okres katastrofalnych susz na Wielkich Równinach i związanych z tym burz piaskowych. W wyniku Dust Bowl zginęło około 7000 osób, ponad 2 miliony ludzi zostało bezdomnymi, a około 3,5 miliona porzuciło dotychczasowe domy i przeniosło się w inne regiony USA.
      Produkcja pszenicy w latach 30. spadła o 36%, a kukurydzy o 48%. Do roku 1936 straty gospodarcze sięgnęły kwoty 25 milionów USD dziennie, czyli 460 milionów współczesnych dolarów.
      Dust Bowl był spowodowany nieprawidłową gospodarką ziemią na Wielkich Równinach. Wcześniejsze dekady to okres pojawiania się coraz większej ilości sprzętu mechanicznego w rolnictwie. To ułatwiło zajmowanie kolejnych obszarów pod uprawy. Pługi coraz głębiej wzruszały wierzchnią warstwę gleby, a naturalne dla tego obszaru trawy, których głębokie systemy korzeniowe zatrzymywały wilgoć w glebie, zostały zastąpione roślinami uprawnymi o płytkich korzeniach. Gdy w latach 30. nadeszła susza, gleba, której nie wiązały już korzenie traw, łatwo zamieniała się w pył, który z łatwością przemieszczał się z wiatrem. Nastała epoka wielkich burz pyłowych. Chmury pyłu zasypywały wszystko na swojej drodze, niszcząc uprawy. Dopiero gdy skończył się okres susz i zaczęło więcej padać, zakończył się też Dust Bowl.
      Naukowcy z Columbia University i NASA postanowili zbadać, jak na ponowny Dust Bowl zareagowałby obecnie rynek żywności. Trzeba bowiem pamiętać, że USA są wielkim producentem i eksporterem żywności. Chcieliśmy sprawdzić, jak wieloletni spadek produkcji u dużego eksportera wpłynąłby na międzynarodowy handel i dostępność pożywienia, mówi doktor Alison Heslin, główna autorka badań.
      We współczesnym zglobalizowanym systemie handlowym problemy pojawiające się w jednym miejscu nie są ograniczane granicami państwowymi. Załamanie produkcji może wpływać na partnerów handlowych, których bezpieczeństwo żywności zależy od importu, dodaje uczona.
      Naukowcy stworzyli dwie alternatywne symulacje światowego handlu pszenicą. Następnie wprowadzili do nich czteroletni okres Dust Bowl ograniczony wyłącznie do USA.
      W pierwszym z modeli kraje najpierw użyły swoich rezerw, a następnie skompensowały niedobory zwiększając import i zmniejszając eksport. W ten sposób doszło do rozniesienia się fali niedoborów. W drugim ze scenariuszów przyjęto, że USA początkowo zmniejszają tylko eksport, na czym cierpią wszyscy partnerzy, a następnie wszystkie kraje kompensują niedobory zwiększając import.
      Analizy wykazały, że obecny wpływ Dust Bowl byłby podobny jak podczas oryginalnego Dust Bowl.
      Okazało się, że w ciągu czterech pierwszych lat Dust Bowl USA wyczerpałyby 94% swoich rezerw żywnościowych. Również wszystkie bez wyjątku kraje, które kupują pszenicę w USA, wyczerpałyby swoje rezerwy, mimo tego, że same nie doświadczyłyby spadku plonów. Oczywiście zapasy te byłyby też uzupełniane, ale i tak wielkość posiadanych rezerw znacząco by się skurczyła w porównaniu ze stanem wyjściowym.
      Skupiliśmy się na całym zestawie możliwych wydarzeń, szczególnie na zmianach w handlu, użyciu rezerw strategicznych oraz spadkach w konsumpcji, wyjaśnia profesor Jessica Gephard, współautorka badań. Zauważyliśmy, że doszłoby do zmiany umów handlowych, kraje kupujące zboże w USA zaczęłyby kupować je gdzie indziej, a na całym świecie doszłoby do spadku strategicznych rezerw pszenicy. W wielu wypadkach rezerwy te zostałyby całkowicie wyczerpane. To wskazuje, że takie wydarzenie spowodowałoby nie tylko wzrost cen w USA, ale też daleko poza granicami Stanów Zjednoczonych, dodaje Gephart.
      Z symulacji wynika, że trwający 4 lata Dust Bowl spowodowałby, że światowe rezerwy pszenicy spadłyby o 31%. Pod koniec 4-letniego okresu na świecie byłoby od 36 do 52 krajów, których rezerwy skurczyłyby się o ponad 75% w porównaniu do okresu sprzed Dust Bowl. Z kolei 10 krajów o największych rezerwach (Chiny, USA, Indie, Iran, Kanada, Rosja, Maroko, Australia, Egipt i Algieria) doświadczyłyby spadku rezerw o 15-22%.
      Jako, że świat posiada duże zapasy zboża, początkowo Dust Bowl nie wpłynąłby na poziom konsumpcji. Nawet kraje, które nie posiadają rezerw zboża byłyby w stanie początkowo zapewnić niezmienny poziom dostaw na rynek.
      Nasze wyniki pokazują, że ryzyka związane ze zmianami klimatycznymi nie dotyczą wyłącznie samego klimatu i lokalnie występujących ekstremalnych warunków pogodowych. To również ich wpływ na światowy handel. W kontekście bezpieczeństwa żywności wykazaliśmy, że posiadane rezerwy mogą, na pewien czas, stanowić bezpieczny bufor, jednak w miarę ich wyczerpywania mogą pojawić się niedobory żywności, mówi Heslin.
      Obecnie USA są trzecim największym na świecie eksporterem pszenicy. Zapewniają 13,6% dostaw na światowe rynki. Większymi eksporterami są jedynie Rosja (21,1%) i Kanada (14,2%).

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Rząd USA przygotowuje się na pandemię trwającą co najmniej 1,5 roku. Takie są założenia wdrażanego od niedawna planu przygotowań. Dziennikarze The New York Timesa zdobyli oficjalny raport [PDF], na potrzeby którego założono, że pandemia potrwa 18 miesięcy lub dłużej i może składać się z wielu fal zachorowań. Może to doprowadzić do pojawienia się niedoborów, które negatywnie odbiją się na amerykańskim systemie opieki zdrowotnej.
      Stustronicowy plan datowany jest na ostatni piątek. W tym samym dniu prezydent Trump ogłosił w Stanach Zjednoczonych stan wyjątkowy. W dokumencie stwierdzono, że prezydent mógłby uruchomić Defense Production Act (DPA) z 1950 roku, z epoki wojny koreańskiej. Ustawa daje prezydentowi prawo do nakazania przemysłowi zwiększenia produkcji krytycznych towarów, takich jak respiratory czy środki ochronne dla pracowników służby zdrowia.
      W dokumencie czytamy może dojść do niedoborów, które będą miały wpływ na system opieki zdrowotnej, służby ratunkowe i inne elementy krytycznej infrastruktury. Dotyczy to też niedoborów sprzętu diagnostycznego, leków, środków ochrony osobistej w niektórych regionach kraju. Autorzy dokumentu stwierdzają, że rządy stanowe i lokalne oraz krytyczna infrastruktura i kanały komunikacyjne mogą zostać przeciążone i mniej wiarygodne".
      Plan nie został utajniony, ale jest na nim adnotacja „Do użytku wewnętrznego. Nie do upubliczniania”. Na 100 stronach opisano działania, jakie powinny podjąć lub już podjęły, różne agendy rządowe.
      Wydaje się, że Waszyngton – krytykowany dotychczas za niedostateczne działania – wziął się do pracy. Członkowie Kongresu od pewnego już czasu wzywali prezydenta, by skorzystał z uprawnień, jakie nadaje mu Defense Production Act. Wdrożenie uprawnień nadanych prezydentowi przez DPA pozwoli rządowi federalnemu na rozpoczęcie działań i podjęcie agresywnych kroków, niezbędnych w obecnej sytuacji, stwierdził w liście do prezydenta demokratyczny senator Bob Menendez. Inni senatorowie zwracał uwagę, że uruchomienie DPA pozwoli Pentagonowi na dostarczenie służbie zdrowia 5 milionów pełnych masek ochronnych i 2000 wyspecjalizowanych respiratorów.
      Jeszcze w czwartek prezydent Trump wzbraniał się przed skorzystaniem z DPA. Dotychczas tego nie zrobiliśmy, ale jesteśmy gotowi. Jeśli będziemy chcieli, zrobimy to bardzo szybko. Od dwóch tygodni zastanawiamy się nad takim ruchem. Mam nadzieję, że nie będziemy potrzebowali takich działań. To poważna sprawa. Dzisiaj Trump ogłosił, że uruchamia przepisy Defense Production Act.
      Ustawa ta, uchwalona w 1950 roku w czasie wojny w Korei, bazuje na doświadczeniach z II wojny światowej. Początkowo dawała ona prezydentowi uprawnienia do nakazania przemysłowi produkcji towarów niezbędnych do obrony kraju. Z czasem rozszerzano te uprawnienia również na inne nadzwyczajne sytuacje.
      Na jej podstawie prezydent ma prawo decydować o uruchomieniu bezpośrednich kredytów lub gwarancji kredytowych oraz podejmowania innych działań mających na celu zachęcenie przemysłu do współpracy. Ma też prawo do zdecydowania o rozpoczęciu dystrybucji sprzętu medycznego i wyposażenia zgromadzonych w Strategicznej Rezerwie Narodowej, kierowaniu federalnych pieniędzy do poszczególnych stanów oraz decydowaniu, gdzie mają trafić krytyczne zasoby tak, by wysyłano je w najbardziej potrzebujące regiony.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W chipsetach Intela używanych od ostatnich pięciu lat istnieje dziura, która pozwala cyberprzestępcom na ominięcie zabezpieczeń i zainstalowanie szkodliwego kodu takiego jak keyloggery. Co gorsza, luki nie można całkowicie załatać.
      Jak poinformowała firma Positive Technologies, błąd jest zakodowany w pamięci ROM, z której komputer pobiera dane podczas startu. Występuje on na poziomie sprzętowym, nie można go usunąć. Pozwala za to na przeprowadzenie niezauważalnego ataku, na który narażone są miliony urządzeń.
      Na szczęście możliwości napastnika są dość mocno ograniczone. Przeprowadzenie skutecznego ataku wymaga bowiem bezpośredniego dostępu do komputera lub sieci lokalnej, w której się on znajduje. Ponadto przeszkodę stanowi też klucz kryptograficzny wewnątrz programowalnej pamięci OTP (one-time programable). Jednak jednostka inicjująca klucz szyfrujący jest również podatna na atak.
      Problem jest poważny, szczególnie zaś dotyczy przedsiębiorstw, które mogą być przez niego narażone na szpiegostwo przemysłowe. Jako, że błąd w ROM pozwala na przejęcie kontroli zanim jeszcze zabezpieczony zostanie sprzętowy mechanizm generowania klucza kryptograficznego i jako, że błędu tego nie można naprawić, sądzimy, że zdobycie tego klucza jest tylko kwestią czasu, stwierdzili przedstawiciele Positive Technologies.
      Błąd występuję w chipsetach Intela sprzedawanych w przeciągu ostatnich 5 lat. Wyjątkiem są najnowsze chipsety 10. generacji, w której został on poprawiony.
      Intel dowiedział się o dziurze jesienią ubiegłego roku. Przed kilkoma dniami firma opublikowała poprawkę, która rozwiązuje problem. Firma przyznaje, że programowe naprawienie dziury jest niemożliwe. Dlatego też poprawka działa poprzez poddanie kwarantannie wszystkich potencjalnych celów ataku.
      Dziura znajduje się w Converged Security Management Engine (CSME), który jest odpowiedzialny za bezpieczeństwo firmware'u we wszystkich maszynach wykorzystujących sprzęt Intela.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Wszystkie pieniądze, jakie Edward Snowden zarobi na swoich wspomnieniach, mają trafić do budżetu USA. Taki wyrok zapadł w Sądzie Okręgowym dla Wschodniego Okręgu Wirginii w sprawie USA v. Edward Snowden and Macmillan Publishing Group.
      Nikt nie powinien być zaskoczony takim obrotem sprawy. Snowden podczas pracy dla CIA i NSA podpisał umowy zgodnie z którymi zobowiązał się do uzyskania wcześniejszej zgody tych agencji przed wydaniem jakiejkolwiek książki bądź publikacji zawierającej tajne materiały. Jeśli zaś opublikowałby coś bez takiej zgody, umowy przewidywały, że zyski z publikacji trafią do budżetu federalnego.
      Snowden, który ujawnił olbrzymią liczbę tajnych dokumentów, od 2013 roku przebywa w Rosji. Jeśli wróci do USA czeka go proces o szpiegostwo.
      Niedawno, 17 września, do księgarń trafiły jego wspomnienia zatytułowane Permanent Record. Tego samego dnia Departament Sprawiedliwości złożył do sądu wniosek i przejęcie zysków Snowdena z tego tytułu. Dokładnie trzy miesiące później sąd przychylił się do wniosku DoJ.
      Prawnicy Snowdena chcieli, by doszło do pełnego procesu, w czasie którego obie strony przedstawiają wszystkie dowody. Argumentowali bowiem, że konieczne jest ustalenie, czy wymóg uzyskania zgody na publikację nie był obowiązkiem narzuconym tylko Snowdenowi.
      Sędzia O'Grady odrzucił jednak wniosek obrony stwierdzając, że umowy są jasno napisane i nikt nie podważa zasadniczych faktów w tej sprawie. Umowy zobowiązywały Snowdena do uzyskania zgody i wciąż są ważne. Snowden o taką zgodę nie wystąpił, a mimo to opublikował książkę pełną tajnych informacji.
      Sąd uznał też, że Snowden złamał podpisane przez siebie umowy występując publicznie podczas konferencji TED i innych podobnych wydarzeń. Podczas każdego z nich prezentował bowiem slajdy zawierające tajne informacje. Snowden argumentował, że nie można go pociągać do odpowiedzialności za publikowanie informacji, które już są publicznie dostępne, jednak sędzia stwierdził, że w podpisanych przez niego umowach nie zawarto tego typu wyjątków.
      Umowy zarówno z CIA jak i z NSA zabraniają nieautoryzowanego ujawniania pewnych informacji, a w „Permanent Record” takie informacje zostały ujawnione, napisał w uzasadnieniu sędzia. W związku z tym w tej sprawie może zapaść wyrok w trybie uproszczonym.

      « powrót do artykułu
×
×
  • Create New...