Zaloguj się, aby obserwować tę zawartość
Obserwujący
0
Pierwowzór Ofelii z raportu koronera
dodany przez
KopalniaWiedzy.pl, w Ciekawostki
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Nowy raport IPCC to „czerwony alarm dla ludzkości", stwierdził Sekretarz Generalny ONZ Antonio Guterres. Opublikowana właśnie część raportu to pierwsze od 2013 roku duże opracowanie podsumowujące stan wiedzy na temat zmian klimatycznych. Jeśli połączymy siły, możemy jeszcze uniknąć katastrofy. Ale, jak pokazuje raport, nie ma już czasu na zwłokę, nie ma też wymówek. Raport opublikowano na trzy miesiące przed szczytem klimatycznym w Glasgow.
Autorzy raportu mówią, że od roku 1970 temperatury na powierzchni Ziemi rosną szybciej niż w jakimkolwiek 50-letnim okresie w ciągu ostatnich 2000 lat. Używając terminologii sportowej, atmosfera jest na dopingu, co oznacza, że coraz częściej obserwujemy ekstremalne zjawiska, mówi Peteri Taalas, sekretarz generalny Światowej Organizacji Meteorologicznej.
Główne wnioski z raportu to:
– w dekadzie 2011–2020 średnia globalna temperatura była o 1,09 stopnia Celsjusza wyższa niż w latach 1850–1900, a ostatnich pięć lat było najgorętszych od roku 1850;
– tempo wzrostu poziomu oceanów jest obecnie niemal trzykrotnie szybsze niż w latach 1901–1971;
– z 90-procentową pewnością można stwierdzić, że wpływ człowieka jest głównym powodem wycofywania się lodowców i spadku pokrywy lodu morskiego w Arktyce obserwowanych od lat 90. XX w.
– jest pewne, że gorące ekstrema, w tym fale upałów, stają się od lat 50. XX w. częstsze i bardziej intensywne, a fale mrozów rzadsze i mniej poważne.
W raporcie czytamy również, że już teraz globalne ocieplenie spowodowało zmiany w wielu systemach podtrzymywania życia na planecie. Systemy te mogą powrócić do stanu sprzed zmian dopiero w perspektywie setek bądź tysięcy lat. Oceany będą się ocieplały i zwiększały kwasowość, a lodowce będą wycofywały się jeszcze przed dekady lub wieki. Autorzy ostrzegają, że każdy dodatkowy ułamek stopnia, o który ogrzejemy planetę, będzie tylko pogarszał sytuację.
W chwili obecnej nie można też wykluczyć – choć jest to mało prawdopodobne – wzrostu poziomu oceanów o 2 metry do roku 2100 i o 5 metrów do roku 2150. To zaś oznacza, że w najbliższych dekadach miliony osób mieszkających na wybrzeżach będą musiały uciekać przed powodziami i podtopieniami.
W Porozumieniu Paryskim z 2015 roku założono, że wzrost średnich temperatur na Ziemi zostanie powstrzymany poniżej 2 stopni Celsjusza w porównaniu z epoką przedprzemysłową, a celem jest utrzymanie go na poziomie poniżej 1,5 stopnia. Z najnowszego raportu wynika, że obecnie jedynym sposobem, by dotrzymać tych ustaleń jest szybkie i bardzo poważne zmniejszenie emisji węgla do atmosfery. Wszelkie inne scenariusze rozważane w raporcie nie dają szansy na utrzymanie temperatur w zaplanowanych widełkach. To zaś oznacza, że w krótkim czasie średnie temperatury na powierzchni Ziemi mogą wzrosnąć do takich, jakich planeta nie doświadczyła od setek tysięcy lub nawet milionów lat. To temperatury, z którymi nigdy się nie zetknęliśmy.
Obecnie ludzkość emituje około 40 miliardów ton CO2 rocznie, tymczasem naukowcy ostrzegają, że jeśli wyemitujemy dodatkowo 500 miliardów ton, to szansa, że globalne ocieplenie zatrzyma się przed poziomem 1,5 stopnia Celsjusza wynosi 50:50.
W raporcie czytamy, że wzrost temperatur o 1,5 stopnia Celsjusza powyżej epoki przedprzemysłowej nastąpi do roku 2040. Pod warunkiem jednak, że w ciągu najbliższych kilku lat dojdzie do znaczącej redukcji emisji. Jeśli tak się nie stanie, te 1,5 stopnia osiągniemy szybciej.
Autorzy raportu przygotowali 5 różnych scenariuszy emisji dwutlenku węgla. Tylko 2 z nich dają szansę, na powstrzymanie globalnego ocieplenia przed poziomem 2 stopni Celsjusza. Najbardziej ambitny, który zakłada, że do połowy wieku emisja spadnie do poziomu 0 netto, pozwala przypuszczać, że globalne ocieplenie uda się zatrzymać nieco powyżej poziomu 1,5 stopnia Celsjusza w porównaniu z epoką przedprzemysłową.
W związku z opublikowaniem raportu Antonio Guterres wezwał wszystkie kraje, by zrezygnowały z planów budowy nowych elektrowni węglowych oraz planów rozwoju i eksploracji paliw kopalnych. Raport ten musi być dzwonem pogrzebowym dla węgla i paliw kopalnych, zanim zniszczą one naszą planetę, stwierdził.
Dzisiaj zaprezentowano pierwszą część, podsumowanie, raportu. Liczy sobie ono 41 stron. Dostępny jest też cały raport [PDF] o objętości niemal 4000 stron, jednak pozostałe strony oznaczono jako Wersja zaakceptowana. Może zostać poddana ostatecznej edycji.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Autorzy Microsoft Security Intelligence Report Volume 11 stwierdzają, że dziury typu zero-day, czyli luki, które przestępcy wykorzystują, a na które nie ma jeszcze łat, nie stanowią większego zagrożenia. W pierwszej połowie 2011 roku mniej niż 1% infekcji zostało dokonanych dzięki tego typu lukom.
Znacznie groźniejsze są, zdaniem Microsoftu, luki dla których producenci oprogramowania wydali łaty, ale użytkownicy ich nie zainstalowali. Największe zagrożenie dla naszych komputerów stanowi Java. Dziury w Javie były odpowiedzialne za od 33 do 50% infekcji w ciągu ostatnich czterech kwartałów - czytamy w raporcie. Przestępcy atakują Java Runtime Environment, Java Virtual Machine oraz Java SE. Oczywiście dla zdecydowanej większość atakowanych dziur łaty istnieją od dawna, ale użytkownicy ich nie instalują.
Popularność Javy wśród przestępców wynika w dużej mierze z faktu, że jest to jedna z niewielu technologii, które działają niemal na każdej przeglądarce i każdym systemie operacyjnym.
Najnowszy raport Microsoftu przynosi te same wnioski co poprzednie - niemal wszystkich infekcji udałoby się uniknąć, gdyby użytkownicy stosowali najnowsze dostępne wersje programów lub gdyby nie dawali się nabierać cyberprzestępcom i nie klikali na odnośniki prowadzące do złośliwych witryn. Nowsze jest lepsze i nie mówię tutaj tylko o produktach Microsoftu. Producenci smartfonów pracują nad nowymi technikami zabezpieczeń, takimi jak ASLR. Jeśli więc używasz 10-letniego oprogramowania, to najwyższy czas, by pomyśleć o przejściu na nowszy produkt - powiedział Jeff Jones, dyrektor Microsoft Trustworthy Computing, robiąc wyraźną aluzję do Windows XP i Windows 7.
Jednak twarde dane pokazują, że słowa te są prawdziwe. Z informacji Microsoftu wynika bowiem, że zarażonych jest 10,9% komputerów z systemem Windows XP SP3. Odsetek infekcji wśród użytkowników 32-bitowej Visty SP2 wynosi 5,7%, by spaść do 4% w przypadku komputerów z 32-bitowym Windows 7 oraz do zaledwie 1,8% dla maszyn z 32-bitowym Windows 7 SP1. Systemy 64-bitowe jeszcze rzadziej padają ofiarami infekcji.
Drugim po Javie najbardziej popularnym celem ataków był system Windows. W drugim kwartale bieżącego roku liczba zainfekowanych systemów wzrosła. Za cały ten wzrost odpowiadają infekcje robakiem Stuxnet, który zaraził komputery poprzez dziurę w Windows Shell. Dziura ta, podobnie jak inne wykorzystywane przez Stuxneta, została załatana w sierpniu 2010 roku.
Kolejnymi największymi źródłami infekcji były przeglądarki, które zarażano przez HTML i JavaScript. Następne na liście znalazły się programy do odczytywania dokumentów, takie jak MS Office, za którymi uplasował się Adobe Flash.
Należy przy tym zwrócić uwagę, że swoje raporty koncern opiera na tych atakach, które są wykrywane przez jego oprogramowanie zabezpieczające. Jeśli zatem atak nie został wykryty, nie uwzględniono go w statystykach raportu.
Dane do raportu zebrano z 600 milionów komputerów pracujących w ponad 100 krajach.
-
przez KopalniaWiedzy.pl
Badania pt. Supply Responses do Digital Distribution: Recorded Music and Live Performances wykazały, że piractwo zmniejsza sprzedaż legalnych albumów, na czym cierpią przede wszystkim gwiazdy. Z drugiej jednak strony mało znane kapele dają więcej koncertów, co wskazuje, że dzięki nielegalnej wymianie plików rośnie zainteresowanie ich twórczością i mogą zyskiwać na koncertach.
Autorami raportu są Julie Holland Mortimer i Chris Nosko z Uniwersytetu Harvarda oraz Alan Sorensen z Uniwersytetu Stanforda.
Odkryliśmy, że wymiana plików zmniejsza sprzedaż albumów mało popularnych artystów, ale zwiększa ich wpływy z koncertów, prawdopodobnie dzięki temu, że stają się bardziej znani. Jeśli zaś chodzi o wpływ wymiany na koncerty gwiazd, to wpływ ten jest pomijalny.
Uczeni zwracają uwagę, że wymiana plików na wielką skalę rozpoczęła się w roku 1999, wraz z pojawieniem się Napstera. Badacze wzięli pod uwagę informacje na temat 227 230 koncertów z lat 1995-2004, podczas których wystąpiło 12 356 artystów. Byli w stanie powiązać te dane ze szczegółowymi informacjami na temat sprzedaży albumów 1806 artystów.
Jak dowiadujemy się z raportu, głównymi źródłami dochodów muzyków są sprzedaż albumów i wpływy z koncertów. W badanym okresie koszt produkcji przeciętnego albumu wahał się w granicach od 100 do 250 tysięcy dolarów. Do tego należy doliczyć koszty marketingu i dystrybucji, które bardzo często są wyższe, niż koszty produkcji.
Standardowy kontrakt z artystą przewiduje, że otrzymuje on tantiemy. Artysta otrzymuje odsetek od sprzedaży albumów. Z góry są mu też wypłacane pieniądze, które mają pokryć koszty wynajęcia studia nagraniowego oraz koszty utrzymania w okresie produkcji albumu. Tantiemy wynoszą 10-18% ceny detalicznej, zwykle jest to 12%. W rzeczywistości artyści otrzymują nieco mniej, ze względu na różne zapisy dotyczące liczenia wynagrodzenia. Możemy przyjąć, że w badanym okresie artysta otrzymywał około 1 dolara od każdego sprzedanego CD. W tym samym czasie kwoty ze wpływów z koncertów, jakie trafiają do studiów muzycznych, są pomijalne. Chociaż zazwyczaj koncerny nagraniowe częściowo opłacają początkującym artystom koszty koncertów i czasem wspomagają finansowo kampanię reklamową koncernów, to praktycznie nie otrzymują z nich pieniędzy. Koncerty są organizowane przez wyspecjalizowane firmy, które opłacają wszelkie związane z nimi wydatki. Artyści przeciętnie otrzymują 70-85% zysków z biletów oraz 70-80% zysków ze sprzedaży gadżetów. Artyści nie mają wpływu na ceny albumów, ale to oni głównie ustalają ceny biletów na koncerty.
Z badań wynika, że piractwo zdecydowanie zmniejsza sprzedaż albumów, a jednocześnie zwiększa konsumpcję muzyki. Coraz więcej osób jej słucha i spędzają przy tym coraz więcej czasu. Sytuacja taka wymusza na artystach zmianę sposobu prowadzenia interesu. Mniej uwagi przykładają oni do nagrywania muzyki, a bardziej skupiają się na dawaniu koncertów.
Szczegółowa analiza pokazuje, że w latach 1995-1996 liczba koncertów wzrosła (z 16 027 do 17 222), by w latach 1997-2000 spaść (z 16 971 do 15 065). Później rosła z 19 425 w roku 2001 do 24 103 w roku 2004. Jednocześnie jednak liczba artystów ciągle rosła z 2159 w roku 1995 do 4212 w roku 2004. Zatem średnia koncertów na pojedynczego artystę spadała z 7,42 do 5,72 rocznie. Nakładając na to dane o liczbie sprzedanych biletów na pojedynczy koncert, uczeni doszli do wniosku, że organizowanych jest coraz więcej małych koncertów, których część umyka statystykom. Ponadto obserwowany spadek liczby koncertów na artystę spowodowany był zapewne pojawieniem się, szczególnie w latach 2003-2004, dużej liczby nowych artystów. Ci mniej znani dawali średnio mniej koncertów.
Bardzo ciekawe jest zestawienie liczby koncertów i sprzedaży albumów w okresach przed pojawieniem się Napstera (w latach 1996-1998) i po rozpowszechnieniu się wymiany plików (lata 2000-2002). W pierwszym z tych okresów liczba koncertów rosła w tempie 4,4% (na rynkach z niską prędkością łączy) do 8,7% (rynki z łączami o wysokiej przepustowości) oraz w tempie 35,2% (rynki, gdzie pobierano mało danych) i spadała o 21,4% (duże pobieranie danych). W następnym okresie można zauważyć znaczący wzrost liczby koncertów. W latach 2000-2002, czyli po rozpowszechnieniu się internetowego piractwa średni roczny wzrost liczby koncertów wynosił 36,3% (rynki o słabych łączach), 69,8% (rynki o szybkich łączach) oraz o 50,4% (rynki, gdzie pobiera się niewiele danych) i 56,0% (rynki, gdzie pobiera się dużo danych).
Odwrotny trend widzimy w przypadków sprzedaży albumów. W latach 1996-1998 roczna sprzedaż albumów zwiększała się. Na rynkach o słabych łączach wzrost ten wynosił 20,2%, a o szybkich łączach 19,0%. Z kolei tam, gdzie pobiera się niewiele danych wzrost sprzedaży albumów wynosił 21,2%, a tam, gdzie pobiera się dużo danych wynosił 18,0%.
W okresie 2000-2002 sprzedaż albumów spada o 16,5% (rynki o słabych łączach), 15,0% (rynki o dobrych łączach) oraz o 16,1% (tam, gdzie pobiera się mało danych) i 15,4% (rynki, gdzie pobiera się dużo danych).
Widzimy również, że artyści coraz mniej chętnie wydają albumy. Jeszcze w roku 1995 aż 59,60% albumów było wydawanych w czasie nie dłuższym niż rok od wyprodukowania poprzedniego albumu. Dwa lata trzeba było czekać w przypadku 20,09% albumów, a trzy lata lub dłużej w przypadku 20,31%. Tymczasem w roku 2004 w ciągu roku od wydania poprzedniego ukazywało się 50,09% albumów, w ciągu dwóch lat 21,01%, a odsetek albumów, na których wydanie trzeba było czekać co najmniej trzy lata wzrósł do 28,90%.
Sprzedaż muzyki szybko spada. W latach 1995-2000 sprzedaż albumów wzrosła z 722,9 milionów do 942,5 milionów, by do roku 2004 spaść do 767 milionów. W tym samym czasie rosła liczba twórców. W roku 1995 było ich 3822, a w roku 2004 - 7931. Więcej aktywnych artystów to więcej nowych albumów. W roku 1995 wydano ich 7576, a w roku 15 941.
-
przez KopalniaWiedzy.pl
Z raportu Ponemon Institute wynika, że w Wielkiej Brytanii średni koszt utraty danych wskutek przestępstwa należy do jednych z najniższych w krajach rozwiniętych. Jednak wprowadzenie nowych przepisów może spowodować, że straty ofiar przestępstw będą większe niż obecnie.
Ponemon informuje, że przeciętne straty spowodowane kradzieżą pojedynczego rekordu wynoszą w Wielkiej Brytanii 98 dolarów, a całkowity koszt przeciętnego włamania to straty rzędu 2,57 miliona USD. To niezwykle mało, zważywszy na fakt, iż światowa średnia wynosi 142 USD dla pojedynczego rekordu i 3,43 miliona dolarów dla włamania. W najgorszej sytuacji są firmy w USA, gdzie średnio utrata jednego rekordu oznacza koszt rzędu 204 dolarów (6,75 milionów na każde włamanie).
Tak wielka różnica w kosztach spowodowana jest różnymi przepisami prawnymi.
Badania te pokazują, jak olbrzymią rolę w generowaniu kosztów włamań mają przepisy. Najlepszym przykładem są tutaj Stany Zjednoczone i jest jasnym, że gdy w innych krajach zostaną wprowadzone regulacje dotyczące obowiązku informowania o włamaniach, koszty w tych państwach również wzrosną - twierdzą eksperci z Ponemon Institute, który wykonał badania obejmujące 133 organizacje z 18 działów gospodarki z Australii, Francji, USA, Niemiec i Wielkiej Brytanii.
W Stanach Zjednoczonych już 46 stanów przyjęło przepisy, które zobowiązują organizacje do informowania o szczegółach włamania. Stąd też wysokie koszty.
Drugim najdroższym krajem są Niemcy, w których podobne regulacje obowiązują od lipca 2009 roku. Koszt utraty pojedynczego rekordu wynosi tam 177 dolarów.
Z kolei w Wielkiej Brytanii, Francji i Australii, gdzie nie istnieje obowiązek informowania o włamaniu, koszty są niższe od średniej światowej.
Może się to jednak zmienić, gdyż coraz częściej podnoszą się głosy o konieczności wprowadzenia uregulowań podobnych do amerykańskich. W Wielkiej Brytanii wywierane są silne naciski na instytucje publiczne oraz sektor finansowy, by ujawniały przypadki włamań. Stąd też np. brytyjski odpowiednik polskiego NFZ znajduje się na czele niechlubnej listy ofiar najczęstszych włamań. Może być to jednak mylące, gdyż prywatne firmy nie są zobowiązane do ujawniania takich danych, więc rzadko o tym mówią.
Innym, obok obowiązku informowania, czynnikiem przyczyniającym się do wysokich kosztów, jest konieczność dostosowania się do obowiązujących regulacji prawnych. Na przykład w Niemczech, gdzie przepisy wprowadzono stosunkowo niedawno, firmy muszą inwestować teraz olbrzymie kwoty w systemy zabezpieczające i wydają średnio 52 dolary na wykrycie i zabezpieczenie każdego przypadku kradzieży pojedynczego rekordu. W Wielkiej Brytanii koszty te to zaledwie 18 dolarów.
Z kolei w USA, gdzie odpowiednie przepisy istnieją od dawna, przedsiębiorstwa mają już za sobą etap olbrzymich inwestycji, i obecnie ta część zabezpieczeń kosztuje je zaledwie 8 dolarów na rekord.
-
przez KopalniaWiedzy.pl
Firma Beyond Trust przeprowadziła analizę dziur załatanych przez Microsoft w 2009 roku oraz dziur znalezionych dotychczas w Windows 7 i stwierdziła na tej podstawie, że zdecydowanej większości zagrożeń można uniknąć, jeśli tylko odpowiednio skonfiguruje się prawa dostępu do komputera.
W ubiegłym roku koncern z Redmond wydał niemal 75 biuletynów bezpieczeństwa, w których załatano około 200 luk.
Z badań Beyond Trust wynika, że właściwe używanie uprawnień - a więc codzienna praca na koncie gościa i korzystanie z konta administratora tylko wówczas, gdy jest to konieczne - to najlepszy sposób na zabezpieczenie komputera. Aż 90% krytycznych błędów w Windows 7 nie można wykorzystać na komputerze, na którym zalogowany jest gość, a nie administrator. W przypadku pakietu MS Office okazało się, że 100% dziur załatanych w ubiegłym roku można było zaatakować tylko na koncie administratora. Korzystanie z konta gościa chroniło przez 94% luk we wszystkich wersjach Internet Explorera i przed 100 procentami dziur w IE8.
Ogólnie rzecz ujmując, jeśli pracowaliśmy na koncie gościa, to niegroźne nam było 64% wszystkich błędów znalezionych w ubiegłym roku w produktach Microsoftu.
Beyond Trust informuje, że 87% spośród dziur pozwalających na zdalne wykonanie szkodliwego kodu, było niegroźnych dla konta gościa. W przypadku dziur krytycznych odsetek ten wynosił 81%.
W ubiegłym roku znaleziono 133 błędy we wszystkich wersjach Windows, z wyjątkiem Windows 7. Nieco ponad połowa (53%) była niegroźna dla osób korzystających z konta gościa. Najbezpieczniejszym z systemów był... Windows XP, w przypadku którego 62% dziur nie dotyczyło konta gościa. Najmniej bezpieczny to... Windows Server 2008, dla którego odsetek ten wyniósł 53%. Należy tutaj pamiętać, że same wartości procentowe to nie wszystko, gdyż Windows XP był systemem w którym, obok Windows Server 2003, odkryto najwięcej dziur. Najmniej było ich w Viście i Windows Server 2008.
Windows 7 można było ochronić przed 90% krytycznych błędów poprzez niekorzystanie z konta administratora. Takie działanie zapobiegało też wykorzystaniu 57% z wszystkich dziur znalezionych w tym OS-ie.
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.