Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

W Internet Observatory Report firmy Arbor Networks znalazło się stwierdzenie, że internet wszedł w drugą fazę rozwoju. Można również zauważyć, iż następuje koncentracja Sieci w rękach wielkich graczy.

Do niedawna w sieci istniało 10 providerów Tier-1, obecnie jest ich 12, jednak zmienili swój model biznesowy. Teraz nie skupiają się oni na obsłudze całego ruchu, ale przede wszystkim na przesyłaniu danych pomiędzy wielkimi przedsiębiorstwami, chmurami obliczeniowymi i twórcami treści.

Jeszcze 5 lat temu ruch w internecie rozkładał się proporcjonalnie pomiędzy dziesiątki tysięcy firmowych witryn oraz serwerów. Dzisiaj większość ruchu odbywa się pomiędzy niewielką liczbą wielkich firm hostingowych, dostawców chmur obliczeniowych i dostawców treści.

Eksperci Arbor Networks oceniają, że obecnie 30 wielkich firm, takich jak Limelight, Facebook, Google, Microsoft czy YouTube obsługuje aż 30% ruchu w internecie. Craig Labovitz z Arbor Networks mówi: Dziesięć czy piętnaście lat temu chodziło po prostu o ruch pomiędzy witrynami, a największym odkryciem naszego raportu jest stwierdzenie, że nastąpiła konsolidacja witryn. W ciągu ostatnich 2 lat duże organizacje kupowały mniejsze witryny i w lipcu 2009 roku do kilku wielkich firm należało już 30% internetu. Dzieje się tak z dwóch powodów, zarówno duże jak i małe domeny przechodzą do chmur. To z kolei powoduje, że mamy do czynienia z więĸszą ilością treści, która jest coraz lepszej jakości i jest szybciej dostępna.

Internet Observatory Report to prawdopodobniej najdokładniejsze studium internetu przeprowadzone od połowy lat 90. Jest ono wynikiem dwuletniej pracy, podczas której przeanalizowano dane dotyczące ruchu w sieci, udostępnione przez 110 wielkich operatorów na całym świecie. Podczas studiów monitorowano 256 eksabajtów danych, które zostały przesłane w ciągu ostatnich dwóch lat. Obecnie w czasie szczytowego obciążenia sieci na całym świecie przesyłanych jest 12 terabitów w ciągu sekundy.

Szczegóły raportu zostaną zaprezentowane 19 października.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Będzie tak jak ze stacjami telewizyjnym że 95% jest w rękach Marducka?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Murdock to z drużyny A był ;) Pewnie chodziło Ci o Ruperta Murdocha...

Swoją drogą ciekawe jaki procent ruchu w sieci stanowią wszelkie techniki p2p, a może ich nie monitorowano ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Jeden niepozorny błąd - źle wpisany adres e-mail, przypadkowo udostępniony plik w chmurze czy dokument pozostawiony w biurowej drukarce - może kosztować firmę naprawdę wiele. W dzisiejszym świecie dane to jeden z najcenniejszych zasobów, a ich ochrona staje się równie ważna jak zabezpieczenie pieniędzy czy sprzętu. Co istotne, zagrożenia nie zawsze przychodzą z zewnątrz - często wynikają z codziennej, rutynowej komunikacji. Dlatego zapobieganie utracie firmowych danych to temat, którego nie można odkładać na później. Jak robić to skutecznie? Odpowiadamy.


      Kanały ryzyka Do wycieku danych wcale nie potrzeba zaawansowanego ataku - często wystarczy zwykła codzienna pomyłka. Mail z poufnym załącznikiem trafiający do złego odbiorcy, wydruk pozostawiony w biurowej drukarce, pendrive zgubiony w drodze na spotkanie, czy plik udostępniony w chmurze bez właściwych uprawnień - to scenariusze, które zdarzają się częściej, niż mogłoby się wydawać. Do tego dochodzą rozmowy na komunikatorach i wideokonferencjach, gdzie łatwo pokazać zbyt wiele. Każdy z tych kanałów wygląda niepozornie, ale to właśnie tam najczęściej kryją się wektory wycieku, dlatego tak ważne jest stosowanie różnych mechanizmów ochrony, dopasowanych do konkretnego sposobu pracy.
       
      Podstawowe mechanizmy DLP Nowoczesne systemy DLP działają trochę jak inteligentny strażnik - potrafią rozpoznać, które pliki zawierają wrażliwe informacje, nadać im odpowiednie „etykiety” i pilnować, co dalej się z nimi dzieje. Jeśli ktoś spróbuje wysłać taki dokument na zewnątrz, system może go zablokować, poprosić o dodatkowe potwierdzenie albo przynajmniej ostrzec, że coś jest nie tak.
      Uzupełnieniem tej ochrony jest IRM, czyli zarządzanie prawami do informacji. To rozwiązanie działa bezpośrednio na samym pliku - można ustawić, kto ma prawo go otworzyć, edytować czy wydrukować. Dzięki temu nawet jeśli dokument przypadkiem trafi w niepowołane ręce, jego zawartość nadal pozostaje zabezpieczona.
       
      Kopie zapasowe i audyt Sama technologia DLP to ważny element układanki, ale nie rozwiązuje problemu w stu procentach. Nawet najlepiej skonfigurowany system nie pomoże, jeśli firma nie zadba o coś tak podstawowego jak regularne kopie zapasowe. To one pozwalają szybko wrócić do pracy po awarii, ataku ransomware czy zwykłej pomyłce pracownika. Ważne jest nie tylko ich wykonywanie, ale też sprawdzanie, czy faktycznie da się z nich odtworzyć dane - wielu organizacjom zdarzało się boleśnie odkryć, że kopie były, ale bezużyteczne.

      Drugim filarem jest audyt. To nic innego jak szczegółowe „mapowanie” danych w firmie - sprawdzenie, gdzie dokładnie się znajdują, kto ma do nich dostęp i jakimi kanałami są przesyłane. Bez takiej wiedzy trudno ustawić skuteczne zabezpieczenia. Audyt pomaga też wychwycić miejsca, w których ryzyko wycieku jest największe, na przykład dział, który korzysta z wielu zewnętrznych narzędzi czy wymienia dużo informacji z partnerami. Dzięki temu można lepiej dopasować polityki bezpieczeństwa do realnych potrzeb, zamiast wprowadzać ogólne zasady, które albo są zbyt luźne, albo nadmiernie utrudniają pracę.
       
      Architektura ochrony Najlepsze rozwiązania w zakresie ochrony informacji opierają się na wielu warstwach, bo tylko takie podejście daje realne efekty. Na poziomie komputerów i urządzeń mobilnych kontrolowane są działania użytkowników, w sieci monitorowany jest ruch wychodzący, a w aplikacjach i chmurze zabezpieczane są pliki współdzielone na co dzień. To właśnie dzięki takiej wielopoziomowej architekturze zapobieganie utracie danych staje się skuteczne - bo nawet jeśli jedno zabezpieczenie zawiedzie, kolejne wciąż stanowią barierę przed wyciekiem.
       
      Proces wdrożenia Wdrożenie systemu zapobiegania utracie danych to proces etapowy. Najpierw robi się audyt i inwentaryzację, by wiedzieć, jakie informacje firma posiada i gdzie one są. Potem następuje klasyfikacja i oznaczanie danych - ustalenie, co jest poufne, a co mniej wrażliwe. Kolejny krok to pilotaż w ograniczonym zakresie, który pozwala sprawdzić działanie systemu i reakcje użytkowników. Dopiero później wdraża się rozwiązanie w całej organizacji, a na końcu dba o stałe monitorowanie i dopasowywanie polityk, tak aby były skuteczne, ale nie paraliżowały codziennej pracy.
       
      Ograniczenia i przykłady rozwiązań Żaden system nie gwarantuje stuprocentowej ochrony. Zagrożenia mogą pojawić się w kanałach, które nie zostały objęte kontrolą, a zbyt restrykcyjne reguły mogą paraliżować pracę. Dlatego w praktyce łączy się różne podejścia: DLP, IRM, archiwizację i szkolenia pracowników. Na rynku dostępne są rozwiązania, które integrują te mechanizmy - przykładem jest GTB DLP Suite, oferowane przez iiTD, które umożliwia zarówno analizę treści, jak i kontrolę kanałów komunikacji. To jedno z narzędzi, które pokazuje, jak technologia wspiera organizacje w redukowaniu ryzyka.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Google ujawniło swoją pilnie strzeżoną tajemnicę. Koncern, jako pierwszy dostawca chmury obliczeniowej i – prawdopodobnie – pierwszy wielki właściciel centrów bazodanowych, zdradził ile wody do chłodzenia zużywają jego centra obliczeniowe. Dotychczas szczegóły dotyczące zużycia wody były traktowane jak tajemnica handlowa.
      Firma poinformowała właśnie, że w ubiegłym roku jej centra bazodanowe na całym świecie zużyły 16,3 miliarda litrów wody. Czy to dużo czy mało? Google wyjaśnia, że to tyle, ile zużywanych jest rocznie na utrzymanie 29 pól golfowych na południowym zachodzie USA. To też tyle, ile wynosi roczne domowe zużycie 446 000 Polaków.
      Najwięcej, bo 3 miliardy litrów rocznie zużywa centrum bazodanowe w Council Bluffs w stanie Iowa. Na drugim miejscu, ze zużyciem wynoszącym 2,5 miliarda litrów, znajduje się centrum w Mayes County w Oklahomie. Firma zapowiada, że więcej szczegółów na temat zużycia wody przez jej poszczególne centra bazodanowe na świecie zdradzi w 2023 Environmental Report i kolejnych dorocznych podsumowaniach.
      Wcześniej Google nie podawało informacji dotyczących poszczególnych centrów, obawiając się zdradzenia w ten sposób ich mocy obliczeniowej. Od kiedy jednak zdywersyfikowaliśmy nasze portfolio odnośnie lokalizacji i technologii chłodzenia, zużycie wody w konkretnym miejscu jest w mniejszym stopniu powiązane z mocą obliczeniową, mówi Ben Townsend, odpowiedzialny w Google'u za infrastrukturę i strategię zarządzania wodą.
      Trudno się jednak oprzeć wrażeniu, że Google'a do zmiany strategii zmusił spór pomiędzy gazetą The Oregonian a miastem The Dalles. Dziennikarze chcieli wiedzieć, ile wody zużywają lokalne centra bazodanowe Google'a. Miasto odmówiło, zasłaniając się tajemnicą handlową. Gazeta zwróciła się więc do jednego z prokuratorów okręgowych, który po rozważeniu sprawy stanął po jej stronie i nakazał ujawnienie danych. Miasto, któremu Google obiecało pokrycie kosztów obsługi prawnej, odwołało się od tej decyzji do sądu. Później jednak koncern zmienił zdanie i poprosił władze miasta o zawarcie ugody z gazetą. Po roku przepychanek lokalni mieszkańcy dowiedzieli się, że Google odpowiada za aż 25% zużycia wody w mieście.
      Na podstawie dotychczas ujawnionych przez Google'a danych eksperci obliczają, że efektywność zużycia wody w centrach bazodanowych firmy wynosi 1,1 litra na kilowatogodzinę zużytej energii. To znacznie mniej niż średnia dla całego amerykańskiego przemysłu wynosząca 1,8 l/kWh.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W jaki sposób mózg decyduje, jak najlepiej poruszać naszym ciałem? Okazuje się, że dla układu nerwowego to spore wyzwanie, gdyż mamy setki mięśni, które muszą być koordynowane setki razy na sekundę, a liczba możliwych wzorców koordynacji, z których musi wybierać mózg, jest większa niż liczba ruchów na szachownicy, mówi profesor Max Donelan z kanadyjskiego Simon Fraser University. Donelan i jego zespół badali, w jaki sposób ciało adaptuje się d nowych ruchów. A ich badania mogą mieć znaczenie zarówno dla treningu sportowców, jak i rehabilitacji niepełnosprawnych.
      Naukowcy zauważają, że bardzo często doświadczamy zmian zarówno w naszym organizmie, jak i w środowisku zewnętrznym. Być może lubisz biegać w niedzielę rano, Twoje mięśnie będą tym bardziej zmęczone im dłuższy dystans przebiegniesz. A może w czasie wakacji biegasz po plaży, gdzie podłoże jest luźne i nierówne w porównaniu z chodnikiem, po którym codziennie chodzisz. Od dawna jesteśmy w stanie rejestrować zmiany w sposobie poruszania się, ale dotychczas chyba nie docenialiśmy, w jaki sposób nasz organizm do takich zmian się adaptuje, stwierdza Donelan.
      Chcąc przyjrzeć się tym zmianom kanadyjscy neurolodzy podjęli współpracę z inżynierami z Uniwersytetu Stanforda, którzy specjalizują się w tworzeniu egzoszkieletów.
      Badania kanadyjsko-amerykańskiego zespołu przyniosły bardzo interesujące wyniki. Okazało się, że system nerwowy, ucząc się wzorców koordynacji nowych ruchów, najpierw rozważa i sprawdza wiele różnych wzorców. Stwierdzono to, mierząc zmienność zarówno samego ruchu ciała jako takiego, jak i ruchów poszczególnych mięśni i stawów. W miarę, jak układ nerwowy adaptuje się do nowego ruchu, udoskonala go, a jednocześnie zmniejsza zmienność. Naukowcy zauważyli, że gdy już nasz organizm nauczy się nowego sposobu poruszania się, wydatek energetyczny na ten ruch spada aż o 25%.
      Z analiz wynika również, że organizm odnosi korzyści zarówno z analizy dużej liczby możliwych wzorców ruchu, jak i ze zmniejszania z czasem liczby analizowanych wzorców. Zawężanie poszukiwań do najbardziej efektywnych wzorców pozwala bowiem na zaoszczędzenie energii.
      Zrozumienie, w jaki sposób mózg szuka najlepszych sposobów poruszania ciałem jest niezwykle ważne zarówno dla ultramaratończyka, przygotowującego się do biegu w trudnym terenie, jak i dla pacjenta w trakcie rehabilitacji po uszkodzeniu rdzenia kręgowego czy wylewu. Na przykład trener, który będzie wiedział, w którym momencie organizm jego podopiecznego zaadaptował się do nowego programu treningowego, będzie wiedział, kiedy można wdrożyć kolejne nowe elementy. A twórcy egzoszkieletów pomagających w rehabilitacji dowiedzą się, w którym momencie można przed pacjentem postawić nowe zadania, bo dobrze opanował wcześniejsze.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Microsoft zatrudnił byłego projektanta układów scalonych Apple'a, , który wcześniej pracował też w firmach Arm i Intel,  trafił do grupy kierowanej przez Raniego Borkara, zajmującej się rozwojem chmury Azure. Zatrudnienie Filippo wskazuje, że Microsoft chce przyspieszyć prace nad własnymi układami scalonymi dla serwerów tworzących oferowaną przez firmę chmurę. Koncern idzie zatem w ślady swoich największych rywali – Google'a i Amazona.
      Obecnie procesory do serwerów dla Azure są dostarczane przez Intela i AMD. Zatrudnienie Filippo już odbiło się na akcjach tych firm. Papiery Intela straciły 2% wartości, a AMD potaniały o 1,1%.
      Filippo rozpoczął pracę w Apple'u w 2019 roku. Wcześniej przez 10 lat był głównym projektantem układów w firmie ARM. A jeszcze wcześniej przez 5 lat pracował dla Intela. To niezwykle doświadczony inżynier. Właśnie jemu przypisuje się wzmocnienie pozycji układów ARM na rynku telefonów i innych urządzeń.
      Od niemal 2 lat wiadomo, że Microsoft pracuje nad własnymi procesorami dla serwerów i, być może, urządzeń Surface.
      Giganci IT coraz częściej starają się projektować własne układy scalone dla swoich urządzeń, a związane z pandemią problemy z podzespołami tylko przyspieszyły ten trend.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W lutym Facebook zaczął usuwać posty, w których twierdzono, że koronawirus SARS-CoV-2 jest dziełem człowieka. Działanie takie było częścią kampanii mającej na celu usuwanie fałszywych stwierdzeń na temat COVID-19 i szczepionek. Posty automatycznie usuwano, a użytkownik, który wielokrotnie takie treści publikował, narażał się na blokadę konta. Teraz Facebook znosi zakaz i pozwala na publikowanie informacji o tym, że SARS-CoV-2 został stworzony przez ludzi.
      W świetle toczącego się śledztwa dotyczącego pochodzenia COVID-19 oraz po konsultacjach z ekspertami ds. zdrowia publicznego, zdecydowaliśmy, że nie będziemy więcej blokowali twierdzeń, jakoby COVID-19 był dziełem człowieka. Będziemy nadal współpracować z ekspertami by dotrzymywać kroku zmieniającej się naturze pandemii i aktualizować naszą politykę w miarę, jak pojawiają się nowe fakty i trendy, oświadczyli przedstawiciele Facebooka.
      Do zmiany polityki Facebooka doszło po tym, jak The Wall Street Journal poinformował, że amerykańskie służby specjalne zdobyły wskazówki sugerujące, iż wirus mógł wydostać się z laboratorium. Zdaniem służb, w listopadzie 2019 roku trzech pracowników Instytutu Wirologii w Wuhan trafiło do szpitala z objawami podobnymi do grypy.
      Facebook z jednej strony poluzował algorytmy ograniczające wolność wypowiedzi, z drugiej zaś strony, tego samego dnia, zaczął ostrzej traktować użytkowników, którzy regularnie rozpowszechniają fałszywe informacje.
      Zgodnie z nowymi zasadami, jeśli posty jakiegoś użytkownika zostaną wielokrotnie oznaczone jako fałszywe, Facebook usunie wszystkie jego posty, nawet te, które jako fałszywe nie były oznaczone. Ponadto użytkownicy, którzy mają w ulubionych profile rozpowszechniające fałszywe informacje, będą przed tymi profilami ostrzegani za pomocą wyskakujących okienek.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...