Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Microsoft i globalne zaświadczenie zdrowotne

Rekomendowane odpowiedzi

Podczas berlińskiej konferencji International Security Solutions Europe, wiceprezes Scott Charney z microsoftowej grupy Trustworthy Computing, zaprezentował ideę "certyfikatu bezpieczeństwa", który musiałby przedstawić każdy komputer usiłujący podłączyć się do sieci.

Taki certyfikat mógłby zawierać takie informacje jak przypadki infekcji maszyny, dane o stosowanym firewallu czy oprogramowaniu antywirusowym. Innymi słowy, zaproponowano technologię na kształt NAC (Network Access Control), ale zaimplementowanej na olbrzymią skalę.

Tak jak niezaszczepiona osoba stanowi ryzyko dla innych, tak niechroniony czy zarażony komputer zagraża bezpieczeństwu innych maszyn w sieci. W świecie fizycznym organizacje ponadnarodowe, narodowe i lokalne identyfikują, śledzą i kontrolują rozprzestrzeniani się chorób i mają prawo, w razie konieczności, do poddania kwarantannie ludzi, którzy mogą zarażać innych - mówił Charney. Proponuje on przyjęcie podobnych rozwiązań w świecie wirtualnym.

Warto tutaj zauważyć, że niektóre kraje już wprowadziły pewne przepisy, które np. zakładają ostrzeganie użytkowników zarażonych komputerów o wykrytej infekcji. Propozycja Microsoftu idzie dalej. Zgodnie z nią komputer podłączający się do internetu musiałby przedstawić swojemu serwerowi certyfikat bezpieczeństwa. Dopiero wówczas mógłby uzyskać połączenie. Oczywiście zastosowanie takiego pomysłu nie będzie proste. Trzeba bowiem stworzyć oprogramowanie, które nie tylko będzie w stanie sprawdzić komputer czy smartfon chcący się połączyć, ale również będzie na tyle bezpieczne, by podrobienie lub zmiana certyfikatów były jak najtrudniejsze.

Zdaniem Charneya problem ten można rozwiązać łącząc możliwości programowego hyperwizora z takimi sprzętowymi modułami jak TPM (Trusted Platform Modules). Innymi słowy, dopiero wspólnie pracujące oprogramowanie i sprzęt mogłyby wystawić bezpieczny certyfikat, który można zweryfikować. Działanie takie wymagałoby też odpowiedzi z drugiej strony. Serwer naszego dostawcy internetu musiałby bowiem informować nas, czy i jakiego komponentu bezpieczeństwa brakuje w naszym komputerze.

Oczywiście propozycja Microsoftu budzi poważne zastrzeżenia dotyczące prywatności. Charney zdaje sobie z tego sprawę i stwierdza, że przed wdrożeniem proponowanych przez niego rozwiązań, należy poważnie zastanowić się nad kwestiami prywatności.

Już wcześniej padały różne propozycje dotyczące bezpieczeństwa w internecie. Jednak po raz pierwszy tak wielka firma jak Microsoft proponuje stworzenie globalnego rozwiązania. Charney mówi, że nie jest to gotowy pomysł, ale raczej punkt wyjścia do dyskusji nad ogólnoświatowym sposobem poprawienia bezpieczeństwa w sieci.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jasne, i każdy hacker będzie miał na dłoni informację, jakie mamy oprogramowanie zabezpieczające, ergo: jakie dziury posiadamy. Bezsens.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No to waląc na odlew: instalacja którego firewalla bądź antywirusa będzie gwarantowała uzyskanie certyfikatu? Wystarczy popatrzeć na rynek antywirusów, aby się przekonać, że różnice w skuteczności czasami są znaczne...

 

"Historia chorób" - ciekawe gdzie by to było przechowywane, w jakiejś zewnętrznej kości pamięci?

 

Firma proponuje stworzenie globalnego rozwiązania, które nie tylko nie ma prawa działać, ale też zaszkodzi, patrząc na to z perspektywy "jedynej słusznej" zapory ogniowej czy antywirusa.

 

Jak dla mnie, to to jest propozycja stworzenia konia trojańskiego, nawet zupełnie ignorując kwestię prywatności.

 

edit: Jurgi -  też takie wrażenie odnoszę, że będzie jak z Adobe flash playerem :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Biorąc pod uwagę osiągnięcia MS w dziedzinie bezpieczeństwa niech MS lepiej skupi się na swoim oprogramowaniu i pozostawi w spokoju cudze. To co proponują przywodzi na myśl słowa: monopol,inwigilacja,cenzura.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wolę już walczyć ze złośliwym oprogramowaniem z którym zdecydowanie łatwiej sobie poradzić niż restrykcjami na dostęp do sieci pod kontrolą jedynej słusznej firmy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Odbiło im. Jak oni sobie to wyobrażają w praktyce? Może jeszcze przy każdym podłączeniu przewodu sieciowego mam dzwonić do MS żeby mi odblokowali dostęp bo mam zainstalowe ich programy? np. Windows Defender?

 

A jak zmienię oprogramowanie to co? Słać listy do USA żeby odblokowali komputer?

A jak czeka mnie reinstalka systemu to co? A jak dysk twardy wymienię to co?

Jak będąc na tak wysokim stanowisku można być takim idiotą? Po raz kolejny się przekonuję że nie tylko w Polsce tak jest.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ja nie wiem czemu tak narzekacie na MS, przecież ta firma problemy ze stabilnością systemu ma od 10 lat za sobą (Win XP) a bezpieczeństwo? Jest wykrywanych najwiecej luk, bo programy MS są najczęściej używane. Jak napisze swój prywatny sys operacyjny na jakieś urządzenie to będzie najbezpieczniejszy na świecie, bo nikomu nie będzie się chciało pod niego virusa pisac czy go hackowac :) Jak znajdzie się troche userów to i błędy znajdą.. i straci "statystycznie" na bezpieczeństwie.

 

Serwery MS są stabilne i bezpieczne tak samo jak linuxowe czy suna/oracle i używane w wielu poważnych firmach. Rozwiązania MS są z roku na rok lepsze... nie wypominajmy im ciągle Win95 i 3.xx :D Trochę rozsądku... tamte lata dawno przeminęły.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Serwery MS są stabilne i bezpieczne tak samo jak linuxowe czy

 

Mam trochę inne doświadczenia. A już każdy kto ma dbać o wss/sharepoint 2007 jest siwy ze zgryzoty. Przeglądanie blogów, pomocy itd. dotyczących produktów MS daje wiele do myślenia. :)

Polecam youtube i hasło sharepoint hell

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie używałem Sharepoint, ale często używam MSSQL serwer w różnych wersjach, oraz MySQL i  darmowy ProgresSQL. Działałem również na bazach Oracle. Z doświadczenia widzę że bezpieczeństwo jest podobne - czyli BARDZO WYSOKIE (o ile nie załapiemy trojana/keylogera który wykradnie hasło w trakcie wpisywania/przesyłu strumienia nieszyfrowanych danych, i robimy na bieżąco aktuyalizacje) Po za tym MS SQL serwer ma piękną dokumentację i jest najdynamiczniej rozwijany (z tych co używam), dlatego też lubię go najbardziej, i stąd też moja obrona serwerów MS i ich dobrego imienia. :)

 

Po prostu bronię to co mi się sprawdza , co mi się dobrze używa i z czym nie mam problemów....

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Po prostu bronię to co mi się sprawdza , co mi się dobrze używa i z czym nie mam problemów....

 

Też uważam MSSQL za niezły produkt. Jest też parę innych całkiem, całkiem. Ale liczba poprawek (dobrze że są) sugeruje trudności w stworzeniu bezpiecznego oprogramowania. Obawiam się, że pod pozorem zwiększania bezpieczeństwa  wytniemy konkurencję i dodamy jeszcze jeden "wektor ataku" Po polsku chyba kierunek natarcia :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Microsoft zatrudnił byłego projektanta układów scalonych Apple'a, , który wcześniej pracował też w firmach Arm i Intel,  trafił do grupy kierowanej przez Raniego Borkara, zajmującej się rozwojem chmury Azure. Zatrudnienie Filippo wskazuje, że Microsoft chce przyspieszyć prace nad własnymi układami scalonymi dla serwerów tworzących oferowaną przez firmę chmurę. Koncern idzie zatem w ślady swoich największych rywali – Google'a i Amazona.
      Obecnie procesory do serwerów dla Azure są dostarczane przez Intela i AMD. Zatrudnienie Filippo już odbiło się na akcjach tych firm. Papiery Intela straciły 2% wartości, a AMD potaniały o 1,1%.
      Filippo rozpoczął pracę w Apple'u w 2019 roku. Wcześniej przez 10 lat był głównym projektantem układów w firmie ARM. A jeszcze wcześniej przez 5 lat pracował dla Intela. To niezwykle doświadczony inżynier. Właśnie jemu przypisuje się wzmocnienie pozycji układów ARM na rynku telefonów i innych urządzeń.
      Od niemal 2 lat wiadomo, że Microsoft pracuje nad własnymi procesorami dla serwerów i, być może, urządzeń Surface.
      Giganci IT coraz częściej starają się projektować własne układy scalone dla swoich urządzeń, a związane z pandemią problemy z podzespołami tylko przyspieszyły ten trend.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Szerokie rozpowszechnienie się internetu i technologii komunikacyjnych przyciąga ludzi do centrów miast. Zachodzi więc zjawisko odwrotne, niż przewidywano u zarania internetu i ery informacyjnej, informują naukowcy z Uniwersytetu w Bristolu.
      Pomimo tego, że internet pozwala nam na niezwykle łatwy dostęp do wszelkich informacji i umożliwia łatwe i szybkie nawiązanie kontaktu z osobami z drugiego końca świata, jego rozwój nie doprowadził do odpływu ludności z miast. Wręcz przeciwnie, specjaliści zauważyli odwrotne zjawisko. Coraz większe rozpowszechnienie się technologii informacyjnych prowadzi zwiększenia koncentracji ludzi w miastach.
      Nie od dzisiaj wiemy, że np. przedsiębiorstwa działające na uzupełniających się polach, mają tendencje do grupowania się na tym samym obszarze, gdyż zmniejsza to koszty działalności. Technologie informacyjne miały to zmienić.
      Doktor Emmanouil Tranos z Univeristy of Bristol i Yannis M. Ioannides z Tufts Univeristy przeanalizowali skutki zachodzących w czasie zmian dostępności i prędkości łączy internetowych oraz użytkowania internetu na obszary miejskie w USA i Wielkiej Brytanii. Geografowie, planiści i ekonomiści miejscy, którzy na początku epoki internetu rozważali jego wpływ na miasta, dochodzili czasem do dziwacznych wniosków. Niektórzy wróżyli rozwój „tele-wiosek”, krajów bez granic, a nawet mówiono o końcu miasta.
      Dzisiaj, 25 lat po komercjalizacji internetu, wiemy, że przewidywania te wyolbrzymiały wpływ internetu i technologii informacyjnych w zakresie kontaktów i zmniejszenia kosztów związanych z odległością. Wciąż rosnąca urbanizacja pokazuje coś wręcz przeciwnego. Widzimy, że istnieje komplementarność pomiędzy internetem a aglomeracjami. Nowoczesne technologie informacyjne nie wypchnęły ludzi z miast, a ich do nich przyciągają.
      Artykuł Ubiquitous digital technologies and spatial structure; an update został opublikowany na łamach PLOS One.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Przed dwoma laty Microsoft rozpoczął interesujący eksperyment. Firma zatopiła u wybrzeża Orkadów centrum bazodanowe. Teraz wydobyto je z dna, a eksperci przystąpili do badań dotyczących jego wydajności i zużycia energii. Już pierwsze oceny przyniosły bardzo dobre wiadomości. W upakowanym serwerami stalowym cylindrze dochodzi do mniejszej liczby awarii niż w konwencjonalnym centrum bazodanowym.
      Okazało się, że od maja 2018 roku zawiodło jedynie 8 a 855 serwerów znajdujących się w cylindrze. Liczba awarii w podwodnym centrum bazodanowym jest 8-krotnie mniejsza niż w standardowym centrum na lądzie, mówi Ben Cutler, który stał na czele eksperymentu nazwanego Project Natick. Eksperci spekulują, że znacznie mniejszy odsetek awarii wynika z faktu, że ludzie nie mieli bezpośredniego dostępu do serwerów, a w cylindrze znajdował się azot, a nie tlen, jak ma to miejsce w lądowych centrach bazodanowych. Myślimy, że chodzi tutaj o atmosferę z azotu, która zmniejsza korozję i jest chłodna oraz o to, że nie ma tam grzebiących w sprzęcie ludzi, mówi Cutler.
      Celem Project Natic było z jednej strony sprawdzenie, czy komercyjnie uzasadnione byłoby tworzenie niewielkich podwodnych centrów bazodanowych, która miałyby pracować niezbyt długo. Z drugiej strony chciano sprawdzić kwestie efektywności energetycznej chmur obliczeniowych. Centra bazodanowe i chmury obliczeniowe stają się coraz większe i zużywają coraz więcej energii. Zużycie to jest kolosalne. Dość wspomnieć, że miliard odtworzeń klipu do utworu „Despacito” wiązało się ze zużyciem przez oglądających takiej ilości energii, jaką w ciągu roku zużywa 40 000 amerykańskich gospodarstw domowych. W skali całego świata sieci komputerowe i centra bazodanowe zużywają kolosalne ilości energii.
      Na Orkadach energia elektryczna pochodzi z wiatru i energii słonecznej. Dlatego to właśnie je Microsoft wybrał jako miejsce eksperymentu. Mimo tego, podwodne centrum bazodanowe nie miało żadnych problemów z zasilaniem. Wszystko działało bardzo dobrze korzystając ze źródeł energii, które w przypadku centrów bazodanowych na lądzie uważane są za niestabilne, mówi jeden z techników Project Natick, Spencer Fowers. Mamy nadzieję, że gdy wszystko przeanalizujemy, okaże się, że nie potrzebujemy obudowywać centrów bazodanowych całą potężną infrastrukturą, której celem jest zapewnienie stabilnych dostaw energii.
      Umieszczanie centrów bazodanowych pod wodą może mieć liczne zalety. Oprócz już wspomnianych, takie centra mogą być interesującą alternatywą dla firm, które narażone są na katastrofy naturalne czy ataki terrorystyczne. Możesz mieć centrum bazodanowe w bardziej bezpiecznym miejscu bez potrzeby inwestowania w całą infrastrukturę czy budynki. To rozwiązanie elastyczne i tanie, mówi konsultant projektu, David Ross. A Ben Cutler dodaje: Sądzimy, że wyszliśmy poza etap eksperymentu naukowego. Teraz pozostaje proste pytanie, czy budujemy pod wodą mniejsze czy większe centrum bazodanowe.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Microsoft ponownie będzie dostarczał użytkownikom Windows 10 poprawki niezwiązane z bezpieczeństwem. Jak wcześniej informowaliśmy, w związku z pandemią koronawirusa koncern zmienił sposób pracy i od maja dostarczał wyłącznie poprawki związane z bezpieczeństwem.
      Chris Morrissey z Microsoftu ogłosił na firmowym blogu, że od lipca dostarczane będą wszystkie poprawki dla Windows 10 oraz Windows Server dla wersji 1809 i nowszych. Kalendarz ich publikacji będzie taki, jak wcześniej, zatem dostęp do nich zyskamy w Update Tuesday. Koncern zapowiada też pewne zmiany, które mają na celu uproszczenie procesu aktualizacji.
      Zmiany takie obejmą nazewnictwo poprawek oraz sposób dostarczania poprawek do testów dla firm i organizacji. Zmian mogą się też spodziewać osoby i organizacja biorące udział w Windows Insider Program oraz Windows Insider Program for Business.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Grupa hakerska Shiny Hunters włamała się na GitHub-owe konto Microsoftu, skąd ukradła 500 gigabajtów danych z prywatnych repozytoriów technologicznego giganta. Dane te zostały następnie upublicznione na jednym z hakerskich forów. Nic nie wskazuje na to, by zawierały one jakieś poufne czy krytyczne informacje.
      Ataku dokonali ci sami przestępcy, którzy niedawno ukradli dane 91 milionów użytkowników największej indonezyjskiej platformy e-commerce Tokopedii i sprzedali je za 5000 USD. Jak mówią eksperci, Shiny Hunters zmienili w ostatnim czasie taktykę.
      Na dowód dokonania ataku na konto Microsoftu hakerzy dostarczyli dziennikarzom zrzut ekranowy, na którym widzimy listę prywatnych plików developerów Microsoftu. Początkowo przestępcy planowali sprzedać te dane, ale w końcu zdecydowali się udostępnić je publicznie.
      Jako, że w ukradzionych danych znajduje się m.in. tekst i komentarze w języku chińskim, niektórzy powątpiewają, czy rzeczywiście są to pliki ukradzione Microsoftowi. Jednak, jak zapewniają redaktorzy witryny Hack Read, ukradziono rzeczywiście pliki giganta z Redmond. Przedstawiciele Shiny Hunters informują, że nie mają już dostępu do konta, które okradli. Microsoft może zatem przeprowadzić śledztwo i poinformować swoich klientów o ewentualnych konsekwencjach ataku. Sama firma nie odniosła się jeszcze do informacji o włamaniu.
      GitHub to niezwykle popularna platforma developerska używana do kontroli wersji, z której korzysta 40 milionów programistów z całego świata. W październiku 2018 roku została ona zakupiona przez Microsoft za kwotę 7,5 miliarda dolarów.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...