Zaloguj się, aby obserwować tę zawartość
Obserwujący
0
Wzbogacanie uranu – ryzyko wyższe od korzyści
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Unia Europejska proponuje, by obywatele mieli możliwość oznaczania witryn zawierających nielegalne lub niepożądane treści. Informacja o wyborach internautów trafiałaby do policji, która bliżej przyglądałaby się takim witrynom. Oznaczanie witryn to jedna z podstawowych inicjatyw rozpoczętego przez Komisję Europejską „Clean IT Project“.
W projekcie bierze udział m.in. Europol, niemieckie Ministerstwo Spraw Wewnętrznych, hiszpańskie Narodowe Centrum Koordynacji Działań Antyterrorystycznych czy holenderski Narodowy Koordynator ds. Bezpieczeństwa i Antyterroryzmu.
Jak czytamy konspekcie dyskusji, która odbyła się podczas pierwszego, listopadowego spotkania wyżej wymienionych organizacji oraz innych osób i stron, internet jest używany również do celów nielegalnych. Niewłaściwe użycie obejmuje wiele form, w tym cyberprzestępczość, mowę nienawiści, dyskryminację, nielegalne oprogramowanie, pornografię dziecięcą i terroryzm. Dowiadujemy się również, że ograniczenie nielegalnego i niepożądanego użycia internetu przez terrorystów i ekstremistów wymaga współpracy dostawców internetu, użytkowników, organizacji naukowych i edukacyjnych, organizacji pozarządowych, prawodawców oraz organów ścigania. Uczestnicy projektu zauważają, że jego celem jest również ograniczenie użycia internetu przez organizacje lub osoby zachęcające do morderstw, przemocy i/lub publikujących lub rozpowszechniających materiały rasistowskie, ksenofobiczne oraz mowę nienawiści.
Clean IT Project zakłada, że nielegalne i niepożądane treści powinny być usuwane przez ISP lub ich klientów. Czytamy również, że „niechciane treści nie muszą być treściami nielegalnymi, jednak na gruncie regulaminu dostawcy internetu są niepożądane w jego sieci“. Dowiadujemy się też, że co prawda Clean IT ma na celu ograniczenie rozpowszechniania terroryzmu i ekstremizmu za pomocą internetu, jednak niektóre z wymienionych poniżej częściowych rozwiązań będą ograniczały też inne formy nielegalnego bądź niepożądanego wykorzystania internetu.
Wśród wspomnianych częściowych rozwiązań wymieniono działania edukacyjne i informacyjne mające na celu zwiększenie aktywności użytkowników [informujących o nielegalnych/niepożądanych treściach - red.] i zwiększenie jakości powiadomień. Proponowane jest prowadzenie kampanii informacyjnych przez rządy, dostawców internetu i organizacje pozarządowe. Mają powstać filtry rodzicielskie, które na podstawie czarnych list tworzonych przez policję będą blokowały niepożądane witryny. Rządy oraz organa ścigania miałyby wysyłać do dostawców internetu informacje dotyczące zagrożeń w ich sieci. Proponuje się też stworzenie sądów i prokuratur wyspecjalizowanych w tego typu sprawach.
-
przez KopalniaWiedzy.pl
Podczas dyskusji na temat różnych metod produkcji energii najczęściej bierze się pod uwagę koszty finansowe oraz środowiskowe. Tymczasem naukowcy ze szwajcarskiego Instytutu Paula Scherrera postanowili zbadać, która z metod produkcji energii pociąga za sobą najwięcej ofiar w ludziach wskutek poważnych wypadków.
Pod uwagę wzięli 1800 wypadków, które wydarzyły się w ciągu ostatnich 30 lat w krajach OECD. Brano pod uwagę tylko takie wydarzenia, w których straciło życie co najmniej 5 osób. Nie policzono awarii elektrowni atomowej w Czernobylu ani ostatniej w Fukushimie.
Warto przy okazji zauważyć, że dla różnych form produkcji energii różnie rozkłada się ryzyko. W przypadku spalania węgla najbardziej ryzykowane jest jego wydobycie, w przypadku elektrowni atomowych do wypadków dochodzi przede wszystkim w samych elektrowniach. Z kolei w przemyśle naftowym i gazowym najwięcej ofiar śmiertelnych pociąga dystrybucja.
Niewątpliwie najbardziej bezpieczną metodą pozyskiwania energii jest energetyka słoneczna (0,02 przypadków śmierci na 100 gigawatów energii/rok), następnie energetyka geotermalna (0,17 śmierci na 100 gigawatów) i energetyka wiatrowa (0,19 śmierci). Te sposoby produkcji energii są jednak na tyle mało rozpowszechnione, że trudno było zebrać dane opisujące, w którym miejscu łańcucha produkcji i dystrybucji dochodzi do wypadków.
Najmniej „śmiercionośnym" spośród rozpowszechnionych rodzajów produkcji energii jest energetyka wodna. Na sto gigawatów energii wygenerowanej w roku dochodzi tam do 0,27 wypadku śmiertelnego. Wszystkie lub prawie wszystkie (od 61 do 100 procent przypadków) mają miejsce w momencie generowania energii.
Niemal trzykrotnie bardziej ryzykowna (0,73 wypadku śmiertelnego na 100 gigawatów/rok) jest energetyka jądrowa. Także i tutaj od 61 do 100 procent wypadków śmiertelnych zdarza się podczas produkcji energii.
Korzystanie z naturalnego gazu to już utrata 7,19 żyć ludzkich na 100 gigawatów/rok energii. Od 6 do 15 procent wypadków śmiertelnych ma miejsce podczas wydobycia, kolejne 6-15% to wypadki, do których dochodzi w czasie długodystansowego transportu. Największe śmiertelne żniwo (31-60%) zbiera dystrybucja gazu na szczeblu lokalnym. Ryzykowane jest też (16-30%) generowanie energii z gazu.
Kolejna na niechlubnej liście jest ropa naftowa. W przemyśle tym na każde 100 gigawatów energii życie traci 9,37 osób. Największym ryzykiem obarczone są (po 16-30%) transport na dalekie odległości oraz dystrybucja na szczeblu lokalnym. Mniej ryzykowne (6-15%) jest wydobycie.
Za najwięcej ofiar śmiertelnych odpowiedzialne jest spalanie węgla, gdzie na każde 100 gigawatów energii życie traci 12 osób. Jak łatwo się domyślić giną one przede wszystkim (61-100%) w kopalniach.
Najmniej ryzykowne, we wszystkich rodzajach produkcji energii - chociaż nie we wszystkich po równo - są przetwarzanie i składowanie paliwa oraz przechowywanie odpadów. Te elementy procesu produkcji przyczyniają się od 0 do 5% przypadków śmiertelnych.
Musimy przy tym pamiętać, że powyższe dane pochodzą z krajów rozwiniętych. W krajach rozwijających się liczba wypadków jest znacznie wyższa. Więcej prac jest tam bowiem wykonywanych ręcznie, istniejące maszyny są w gorszym stanie, a obowiązujące przepisy i metody pracy niosą ze sobą większe ryzyko. Trudno jednak podać dane z takich krajów, gdyż tamtejsze statystyki są często niepełne lub celowo fałszowane.
Należy jednak zwrócić uwagę, że największe koszty i ofiary generuje nie sam proces produkcji energii, ale zanieczyszczenia wywoływane spalaniem paliw kopalnych. Z badań przeprowadzonych przez Pascale Scapecchiego na zlecenie OECD wynika, że z powodu zanieczyszczenia pyłem corocznie w Polsce umiera co roku 32 850 osób powyżej 30. roku życia oraz 94 niemowlęta. U 14 680 osób powyżej 27. roku życia rozwija się chroniczne zapalenie oskrzeli, 6110 osób zgłasza się od szpitali z powodu problemów z układem oddechowym, a 3770 jest przyjmowanych z powodu problemów z układem krążenia. Oszacowano też, że wiąże się to w sumie z niemal 35 milionami dni o obniżonej aktywności. Bardziej szczegółowe dane, pochodzące z USA, pokazują, że w 2000 roku wskutek emisji przez elektrownie pyłów utracono ponad 5 milionów dni roboczych, a obniżenie aktywności dotyczyło ponad 26 milionów dni.
Z kolei dwóch hiszpańskich naukowców, Monzon i Guerrero, oszacowali społeczne i zdrowotne koszty jakie poniesiono w samym tylko Madrycie w 1996 roku w związku z zanieczyszczeniami powietrza emitowanymi przez transport. Biorąc pod uwagę koszty związane z przypadkami śmierci, przyjęciami do szpitali, utratą produktywności oraz cierpieniem całość strat oszacowano na ponad 682,5 miliona dolarów. O tym, że nie są to przesadzone kwoty mogą świadczyć wyliczenia dokonane przez Ontario Medical Association. Kanadyjczycy, chcąc obliczyć straty związane z zanieczyszczeniem powietrza stwierdzili, że stracony czas, koszty opieki zdrowotnej, przedwczesnych zgonów oraz cierpienia wyniosły w 2005 roku w Kanadzie 6 miliardów 430 milionów USD.
Jak zatem widzimy, największe straty przynoszą długofalowe skutki wykorzystywania technologii zanieczyszczających środowisko naturalne.
-
przez KopalniaWiedzy.pl
Specjaliści z Symanteka dokładnie określili mechanizm działania robaka Stuxnet i jego cele. Okazało się, że jego celem było atakowanie specyficznego typu silników, używanych m.in. w procesie wzbogacania uranu. Zadaniem Stuxneta było manipulowanie częstotliwością konwerterów i wpływanie przez to na prędkość pracy silnika.
Stuxnet atakował komputery zawierające procesory S7-300. Pojedynczy robak był w stanie kontrolować do sześciu modułów komunikacyjnych CP-342-5 firmy Profibus, z których każdy można połączyć z 31 konwerterami częstotliwości. Co więcej, Stuxnet atakował konwertery tylko konkretnych producentów. Jednego z Finlandii i jednego z Iranu. Częstotliwość ich pracy wynosi od 807 do 1210 herców. Dokonując niewielkich zmian na przestrzeni wielu miesięcy Stuxnet mógł sabotować proces wzbogacania uranu.
Zarówno fakt atakowania dwóch specyficznych producentów oraz wysoką częstotliwość pracy konwerterów, które mogą paść ofiarami Stuxneta, zawęża pole poszukiwania faktycznego celu robaka. Wiadomo na przykład, że takie konwertery to bardzo specyficzne urządzenia i np. w USA eksport konwerterów pracujących z częstotliwością 600 Hz jest nadzorowany przez Komisję Atomistyki, gdyż mogą być one użyte do wzbogacania uranu.
Specjaliści Symanteka przyznają, że nie są ekspertami od przemysłowych systemów kontroli i nie wiedzą, gdzie jeszcze, poza wzbogacaniem uranu, stosuje się podobne konwertery.
-
przez KopalniaWiedzy.pl
Terroryści zawsze byli o krok przed służbami policyjnymi, a dziś, kiedy zagrożenie terroryzmem wzrasta, technologia pozwala im być nawet o dwa kroki do przodu. Olbrzymie kłopoty sprawia wykrywanie ładunków wybuchowych - dziś nikt nie używa tradycyjnych materiałów, a rozwój chemii pozwala stosunkowo łatwo sporządzić silne i trudno wykrywalne materiały wybuchowe z substancji powszechnie dostępnych w sklepach chemicznych.
Jednym z takich materiałów jest nadtlenek acetonu (najczęściej używaną postacią jest triacetonetriperoxide, TATP), uzyskiwany w prostej reakcji utleniania acetonu nadtlenkiem wodoru. Związek ten jest trudny do wykrycia większością tradycyjnych, chemicznych metod: nie paruje intensywnie, nie ulega jonizacji, nie absorbuje ultrafioletu, nie fluoryzuje. Urządzenia do jego wykrywania są wielkie i nieporęczne nawet jako detektory stacjonarne, ponadto są wrażliwe na zmiany wilgotności, ślady innych środków chemicznych (jak detergenty), itd. To czyli TATP niemal idealnym środkiem do sporządzenia przysłowiowej bomby w bucie.
Tak przynajmniej było do tej pory, bowiem bardzo skuteczne i efektywne urządzenie do wykrywania nadtlenku acetonu skonstruowali Kenneth Suslick oraz Hengwei Lin z University of Illinois w Urbana-Champaign. Ich kolorymetryczna matryca pozwoli wykryć TATP już w stężeniu dwóch cząsteczek na miliard. Składa się ona z 16 kropek różnokolorowych pigmentów naniesionych na obojętną, plastikową błonę. Specjalny, kwasowy katalizator rozkłada cząsteczki TATP na łatwo wykrywalne substancje, powodujące zmianę koloru pigmentów, od razu stosownie do stężenia. Do analizy zmian pigmentów wystarcza zwykły stołowy skaner lub kamera cyfrowa oraz odpowiednie oprogramowanie.
Technologia nie tylko pozbawiona jest wad dotychczasowych rozwiązań, ale jest również bardzo tanie, a matryca z pigmentami posiada długi termin ważności, a urządzenie łatwo zaprojektować w wersji przenośnej, pozwalającej szybko skontrolować np. bagaż podręczny, czy wnętrze samolotu. Inżynierowie z University of Illinois skonstruowali zresztą pierwszy, przenośny egzemplarz, korzystając z elementów dostępnych w sklepie.
-
przez KopalniaWiedzy.pl
Telefony komórkowe przez ostatnie lata obrosły w tyle dodatkowych możliwości, że w zasadzie trudno nazywać je telefonami. Funkcje multimedialne, aparaty i kamery cyfrowe, dekodery kodów kreskowych, odbiorniki GPS, nawigacje, czujniki drgań... Każdy producent myśli, co by tu jeszcze dołożyć dla zwiększenia atrakcyjności. I nie tylko producent. Myśli o tym również oddział naukowy amerykańskiego Departamentu Bezpieczeństwa Krajowego. Według zaprezentowanej koncepcji telefony komórkowe miałyby wykrywać skażenie powietrza trującymi gazami i niebezpiecznymi chemikaliami.
Służyć ma temu projekt Cell-All, prowadzony w Homeland Security's Science and Technology Directorate (Wydziale Nauki i Technologii Departamentu Bezpieczeństwa Krajowego). Celem jest wyposażenie wszystkich komórek w czip diagnostyczny, wykrywający niebezpieczne substancje. Oprócz natychmiastowego alarmu w przypadku skażenia powietrza, komórki z tym rozwiązaniem byłyby w obustronnej łączności z centralnym systemem. Pozwoliłoby to takiej centrali otrzymywać natychmiast wiadomość o wypadkach, czy atakach terrorystycznych, a jednocześnie eliminowałoby fałszywe alarmy. Z drugiej strony, możliwe byłoby również centralne i natychmiastowe powiadamianie ludności o konieczności ewakuacji z zagrożonego miejsca.
Nieuniknione są głosy osób obawiających się o swoją prywatność, w przypadku telefonu, który regularnie łączy się z jakąś centralą. Ale przecież i tak każda komórka regularnie łączy się z punktem dostępowym (BTS), a w przypadku nowoczesnych telefonów i tak trudno być pewnym, co dokładnie robi zainstalowane oprogramowanie.
Nie jest to całkowicie nowy pomysł. Naukowcy, inżynierowie, a nawet domorośli majsterkowicze sugerują wiele analogicznych, zdumiewających zastosowań smartfonów. Często wystarczy odpowiednie oprogramowanie, aby np. wykorzystać wbudowaną kamerę do analizy różnych substancji. Istnieje pomysł wykorzystania czujników drgań w laptopach Apple do wykrywania trzęsień ziemi. Są modele telefonów dla kobiet, które sygnalizują nadejście owulacji. Są komórki dla seniorów, które same alarmują pogotowie w razie upadku. Możliwości jest wiele, ogranicza nas tylko pomysłowość. U nas, co roku podczas zimy, wiele osób ulega śmiertelnemu zatruciu czadem. Tych ludzi uratowałaby komórka z czujnikiem, którą przecież prawie każdy trzyma przy sobie.
Po sławetnym ataku na WTC 11 września Ameryka żyje w ciągłym strachu przed kolejnymi zamachami. Obawa, że terroryści użyją broni chemicznej lub biologicznej jest powszechna. Ataki takie miały już przecież miejsce w Japonii. Nic więc dziwnego, że poszukuje się wszelkich możliwych sposobów obrony. Opracowanie i wdrożenie powszechnego systemu czujników wymagałoby horrendalnych kosztów, przerzucenie tego na dostępne powszechnie gadżety zredukowałoby je do minimum. Jak miałoby to być wdrożone? Planowana cena takiego diagnostycznego układu to mniej niż jeden dolar. Spekulując, można śmiało założyć, że prawdopodobne jest dofinansowanie kosztu jego wbudowania do nowych modeli aparatów, lub podatkowe ulgi dla producentów chętnych do jego wprowadzenia. W dalszej przyszłości możliwy zapewne byłby nawet ustawowy nakaz.
Nad stworzeniem i komercjalizacją systemu pracują trzy zespoły: Qualcomm, National Aeronautics and Space Administration (NASA) oraz Rhevision Technology. Zainteresowane dołączeniem są również LG, Apple i Samsung, co gwarantowałoby szybkie rozpowszechnienie rozwiązania. Być może do wdrożenia upłynie jeszcze kilka lat, ale założenia są w pełni wykonalne i przy obecnym rozwoju techniki wkrótce możemy ujrzeć przynajmniej prototypy.
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.