Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Jeśli bliżej przyjrzymy się działaniom Microsoftu związanym z Windows 7, odczujemy pewien zgrzyt informacyjny. Oficjalnie pełna edycja Windows 7 ma pojawić się pod koniec bieżącego lub na początku przyszłego roku, ale czy na pewno?

Koncern z Redmond mówi, że Windows 7 Beta 1 nie będzie znacząco różnił się od ostatecznej wersji systemu. Ponadto, jak dotąd, Beta 1 jest chwalona i nikt nie poinformował o wykryciu jakichkolwiek poważnych niedociągnięć. Jeśli zatem nie wydarzy się nic niespodziewanego, możemy stwierdzić, że mamy do czynienia praktycznie z gotowym systemem.

Jak pamiętamy, Windows 7 Beta 1 będzie działał do 1 lipca 2009 roku. Co później? Na stronie Microsoftu czytamy: Aby używać komputera, należy przygotować się na ponowne zainstalowanie poprzednio używanej wersji Windows lub kolejnej edycji Windows 7. Tyle witryna skierowana wszystkich. Jednak na microsoftowej witrynie TechNet, przeznaczonej dla płacących subskrybentów (ci mają dostęp do kolejnych wydań oprogramowania wcześniej, niż inni internauci), zdanie brzmi: Gdy ważność bety wygaśnie 1 sierpnia 2009 roku, należy ponownie zainstalować dostępną wersję Windows. Można więc wnioskować, że przed sierpniem pojawi się możliwość zainstalowania nowszej wersji Windows 7. Jeśli zaś Beta 1 jest tak dobra, jak się wydaje, to czy jest sens publikować kolejne bety, a później wersje RC (release candidate), a w końcu RTM (ready to manufacture)?

Ponadto, jak można przeczytać na blogu pracownika Microsoftu, Jamesa O'Neilla, program aktualizacji komputerów z XP do Visty rozpoczęto na dwa tygodnie przed ukazaniem się edycji RTM systemu Windows Vista. Tymczasem Windows 7 Upgrade Program wystartuje prawdopodobnie 1 lipca.

O'Neill uważa, że nowy OS trafi do użytkowników dopiero na początku przyszłego roku. To wystarczająco dużo czasu, by zaprezentować dwie wersje beta i 3 RC. Tym bardziej, że nie od dzisiaj Microsoft twierdzi, iż pomiędzy kolejnymi premierami powinno upłynąć co najmniej 3 lata. Jednak pracownik Microsoftu zapomina, że wersja RTM Visty była gotowa na początku listopada, a użytkownicy licencji zbiorowych mogli ją otrzymać już 30 listopada 2006 roku.

Jeśli zatem 1 sierpnia rozpocznie się Windows 7 Upgrade Program i w tym samym czasie użytkownicy TechNetu (a być może wszyscy internauci), będą mogli pobrać kolejną edycję Windows 7, to gotowy system może ukazać się wkrótce po wakacjach.

Share this post


Link to post
Share on other sites

Dlaczego M$ jedzie "po łebkach" z Windows 7? Już w Vista miał być zaimpletowany WinFS oraz wiele innych innowacji, co oczywiście się niestało. Windows 7 jak to określił Steve Ballmer: "Poprawna Vista". Jednak brak jest jakich kolwiek większych zmian. Poza zmianą taskbara na tego podobnego do systemów Mac. MinWin też miał być początkowo jako nowe położe jądra systemu, pozwalające na osiągnięcie jeszcze mniejszych wymagań jak XP i dodatkowo o wiele wyższej wydajności, stabilności i bezpieczeństwa.

Niestety M$ lubi "odrzewać kotlety", tylko tym razem dodał trochę przyprawy.

Share this post


Link to post
Share on other sites

Windows Vista był systemem "przejściowym" na którym (podobno) testowali różne ciekawe rozwiązania (na przykład jak maksymalnie wykorzystać pamięć operacyjną komputera :)) na już starym jądrze NT. Nowy Windows posiada nowe jądro (podobno kompletnie przepisane) i nowy wygląd (ja słyszałem że bardziej przypomina KDE jak Mac'ówkę ;)). Głównie przez te "super innowacje" system wymaga dużej ilości testów (może nie chcą powtórki z Visty?). Na temat Bety 1 b7000 słyszałem różne opinie i jego "niezawodność" jak można wywnioskować z obserwacji w dużej mierze zależy od kompatybilności sprzętu. Moja wypowiedź wnosi tyle samo co obietnice M$...

 

No ale czego Micro$oft by nie wymyślił, jednego ze swojej rzeszy klientów nie odzyskają :P

Share this post


Link to post
Share on other sites
Windows Vista był systemem "przejściowym" na którym (podobno) testowali różne ciekawe rozwiązania (na przykład jak maksymalnie wykorzystać pamięć operacyjną komputera :)) na już starym jądrze NT.

To Vista miał być tym "rewolucyjnym" systemem, ale oczywiście spartolili sprawę.

Windows 7 nie ma nowego jądra. Jest to przerobione jądro Visty, czyli praktyka M$ od zarania dziejów. Przerabianie starego jądra.

 

Nowy Windows posiada nowe jądro (podobno kompletnie przepisane) i nowy wygląd (ja słyszałem że bardziej przypomina KDE jak Mac'ówkę ;)). Głównie przez te "super innowacje" system wymaga dużej ilości testów (może nie chcą powtórki z Visty?).

Słyszeć, a widzieć to co innego. Lecz rzeczywiście, przypomina nowy taskbar trochę ten z KDE również (co kto lubi). Do tego, każdy system wymaga sporej ilości testów i tak - nie chcą powtórki Visty, dlatego zdecydowali się postawić na to, co najbardziej bolało odbiorców Visty - wydajność, stabilność, obsługa sprzętu oraz inne drobne, aczkolwiek przyjemne smaczki.

 

//EDIT

Windows 7 nie ma nowego, przepisanego kompletnie jądra. Jest to zmodifikowane jądro Visty, czyli jazda na starych walizkach. Jednak jest w tym pewien plus. Większość użytkowników wymieniła już swoje komputery na nowe, przez co Seven nie będzie miał żadnych kłopotów ze sprzętem i sterownikami, jakie miała Vista, jako że jądro Visty było sporym skokiem, który nadwyrężył trochę ścięgna.

 

Na temat Bety 1 b7000 słyszałem różne opinie i jego "niezawodność" jak można wywnioskować z obserwacji w dużej mierze zależy od kompatybilności sprzętu.

Ja testowałem 3 buildy 6801, 69xx oraz 7000 Beta 1. I muszę przyznać, że mam pozytywne wrażenia. Gdyby nie drobne bugi, można by spokojnie pracować jak na finalnym systemie.

Share this post


Link to post
Share on other sites

Kiedy wyjdzie Windows 7 ? jak najszybciej się da bo trzeba pieniędzy a vista ich nie daje tyle ile trzeba, a moloch musi nawet w krótkim okresie na siebie zarabiać bo jak przestanie to się okaże ze jest dmuchana banką i będzie pierdut.

Ciekawa jest tez sama nazwa.

Windows 7 miał byc kolejnym  krokiem milowym w numeracji Windowsów od nt 4.0,  5.0 to w 2000, 5.1 to XP , 6.0 to vista a 7 to miało być wiadomo co i ze wspaniałości zostało tylko seven bo ten Windows ma oznaczenie 6.1, przez analogie oznacza to mniej więcej ze miedzy nim będzie taka różnica jak miedzy 2000 a xp czyli żadnego skoku technologicznego nie będzie jedynie dołożą troszkę wodotrysków. I ten numer im wyjdzie drugi raz i nikt sie nie połapie bo windows 2000 był raczej niedomowy wtedy po domach było raczej 98 czasem me i tak naprawde ta taktyka nie była jeszcze otwarcie stosowana. Za to wzmoże się bełkot marketingowy jaki to wspaniały i nowy system pewnie będą nawet ciśli kity ze ekologiczny bo to modne.  Co ciekawe takie postępowanie oznacza ze w m$ cieńko z kasą. Poza tym argument w postaci kroku w przód pozostanie dla kolejnego Windowsa i znowu będzie popyt. Już dziś wielu ludzi jest przekonanych ze seven to wielki krok do przodu (pewnie nazwy nie zmienili żeby z błędu nie wyprowadzać i tak mało kto się interesuje co jest w środku byleby ładnie mrugało) a tak naprawdę  cały seven mógł by być service packiem do visty. Ale ludzie jak zobaczą nowy pulpit to stwierdza ze jest postęp bo użytkownik m$ został przez lata skutecznie oduczony od zastanawiania się co jest w srodku. 

 

Należy zwrócić jeszcze uwagę na jeden bardzo istotny aspekt otóż nie robiąc kroku w przód Microsoft się cofa jednak dzięki temu otrzymuje dość poważne wsparcie w walce z linuxem. Jeśli wypościli by Windowsa na na nowym jądrze to pojawiły dy się standardowe problemy ze sterownikami i kompatybilnością milionów produktów. Windows 2008 działa jako system serwerowy w dość ograniczonym i mało zróżnicowanym środowisko sprzętowym. I kolejny argument w walce z linuxem czyli łatwość instalacji czegokolwiek wypadł by M$ z reki pozostało by jedynie przyzwyczajenie użytkowników i rożne specjalne zastosowania (od Photoshopa po co się tam komu wymyśli, oraz gracze) jednak to by wystarczyło by pewna cześć firm zmieniła oprogramowanie a to by m$ zabolało bo był by to krok bliżej do detronizacji Windowsa a niestety po którymś takim kroku spadnie lawina. 

 

Share this post


Link to post
Share on other sites

Windows Seven = Windows Vista plus parę wodotrysków ? Byzydura ! Sprawdź sobie jakie oba systemy mają zapotrzebowanie na hardware. Dla mnie i dla wielu innych to na pewno krok w przód. Zmieniony taskbar jak dla mnie jest bomba, i wcale nie chodzi o wodotryski, lecz o jego funkcjonalność. Jakoś po nowych systemach nigdy nie oczekiwałem rewolucji. Inaczej system ten robiła by PKP i nazywało by się to Doors 2008. Windows`y, Linuks`y czy MacOs`y z każdą swoją nowszą wersją ewoluują, nie robiąc rewolucji. Taka już specyfika rynku i klientom to na rękę. Nie zmienia się czegoś co jest dobre, można dodawać coś nowego, czy ulepszać coś co kulało. Na szczęście Visty nie kupowałem, nie dałem się nabrać marketingowcom. Seven jeszcze potestuję i zobaczymy co z tego wyjdzie :)

Share this post


Link to post
Share on other sites
Guest macintosh

Mam 2GB Patriotów 1066 (1GBx2) - warto Viste?

czy jest radykalnie różna od XPka?

czy6 raczej będzie przesrane?

Share this post


Link to post
Share on other sites

2GB wystarczy. Ale nie lepiej poczekać na Win7? Znajomy testuje betę już parę dni i sobie chwali, póki co.

Share this post


Link to post
Share on other sites

z 2 GB nie warto isc na Viste bo po co? Xp ci zle chodzi czy jak? :) Ja osobiscie czekam na win 7 64 wtedy zmienie system.

Share this post


Link to post
Share on other sites
Guest macintosh

z 2 GB nie warto isc na Viste bo po co? Xp ci zle chodzi czy jak? :) Ja osobiscie czekam na win 7 64 wtedy zmienie system.

ja chyba też - wtedy zamienie na dualne 8gb 1066 5-5-5-15 (niestety mam platforme amd, Nehalem - później)

chodzi o to, że vista buforuje dane z dysku - więc szybszy zapiernicz, bez lagów, gdy ma się dużo ramu

Share this post


Link to post
Share on other sites
Guest macintosh

czy da sie to jakos poprawić?

  :

post-0-13187858089252_thumb.jpg

Share this post


Link to post
Share on other sites

no wlasnie duzo :) dla Visty 2 GB to nie jest duzo hehe

 

No jak używasz jednocześnie najnowszego Photoshopa, masz otwarte 50 tabów w przeglądarce z yt czy gierkami flash, słuchasz muzy i piszesz dokumentację, to i 8 Ci nie wystarczy. Do zwykłego używania 2GB spokojnie mu wystarczy, z opcją na 4. Najlepiej w dualu. Jak zależy Ci na jeszcze większej szybkości przy pracy z dyskiem, to podepnij pendrive i użyj ReadyBoost. A konfiguracja jak najbardziej spoko, jedynie FSB wydaje się być wąskim gardłem.

Share this post


Link to post
Share on other sites
Guest macintosh

czy da sie to jakos poprawić?

  :

acha - rozumiem, że sytuacja jest beznadziejna

 

pytanie: mogę w biosie max HT ustawić na 2.2Ghz - a full dla HT3.0 to 2.6Ghz - czemu mam aż tak przerąbane?

jakie bezpieczne napięcie ustawić na RAM?

 

czemu jak z overclockuje go na +[4%HT] + [x14dla CPU(std=x12.5]) + [FSB(+3%)] TO "stability test" w everście się załamuje po kilku sekundach :-\

Share this post


Link to post
Share on other sites

Ale jaki masz problem? Co chcesz kręcić? Jak podkręcasz wszystko na maksa i komp nie działa stabilnie bo HT lub taktowanie proca za wysokie przy niezmienionym napięciu, to niedziwne, że "stability test" się sypie.

Share this post


Link to post
Share on other sites
Guest macintosh

Ale jaki masz problem? Co chcesz kręcić? Jak podkręcasz wszystko na maksa i komp nie działa stabilnie bo HT lub taktowanie proca za wysokie przy niezmienionym napięciu, to niedziwne, że "stability test" się sypie.

nie wiem jakie proporcje napięcia dobrać do kręcenia procka i HT

nie wiem na ile moge sobie pozwolić, żeby nie spalić

 

nie kręcę na maksa - o kilka procent co czasem daje 0,5GB skoku na zapisie do RAMU (w ogóle wyniki w Everście potrafią się zmienic o dobre 10% w 10min - bez dodatkowego tuningu)

 

czemu HT jest tylko do 2.2 a nie do FULL 3.0Ghz ?

(raz jak dokręciłem FSB o 3-4% to HT w Evereście pokazało się na 2.3Ghz 8)

 

mam Black Edition, ale po co mi to (orginalna krotność to x12.5 - bios pozwala na ~x32-x35) - jak by się spalił (nawet gdybym zastosował chłodzenie azotem(ciepło by się generowało szybciej niż dochodziłoby do powierzchni rdzenia... acha-no mógłbym najpierw przychłodzić, apote... e krece max + x1,5))

 

chce kręcić: FSB i HT + ew. CPU + onboard VGA , BO CEL to : zwiększyć write na RAMie + poprawić wymianę danych między komponentami(np mostek południowy albo onboardVGA vs RAM)

Share this post


Link to post
Share on other sites

Tu masz coś ciekawego:

http://overclock.pl/forum/viewtopic.php?id=5114

Pamiętaj że kręcąc HTT (FSB) automatycznie zwiększasz taktowanie HT i CPU. Tak więc pamiętaj o odpowiednich mnożnikach i zmniejszaj je, jeśli to potrzebne. Taktowanie pamięci zależne jest od dzielnika pamięci. Oczywiście podczas zwiększania taktowania pamięci mogą wydłużyć się timingi.

Na HT za bardzo się nie skupiaj. Nie próbuj na siłę robić 2.6 - to, że teoretycznie szyna HT może z taką częstotliwością pracować nie oznacza, że jest to fizycznie możliwe. Jeśli chcesz się skupić na podkręceniu procka, wraz ze wzrostem HTT zmniejszaj mnożnik HT, by częstotliwość HT pozostawała na odpowiednim poziomie (2.0 - 2.2 efektywnie). A gdy zauważysz, że komputer pracuje niestabilnie na określonej częstotliwości procka, możesz lekko zwiększyć napięcie. Tyle że phenomy oporne są, o czym można się przekonać zaglądając np tu:

http://www.legitreviews.com/article/682/13/

Także niewiele Ci to da. Wracając do pamięci, musisz ustawić odpowiednie HTT i dzielnik pamięci ;]

Share this post


Link to post
Share on other sites
Guest macintosh

Dzięki Sebaci :)

przyjże się i dziękuję za poradę 8)

 

więc kwantowo zwiększyłem napięcie i jest jak mówiłeś - stability się nie sypie SUKCES!!

 

jeszcze nie wiem jak podnieść napięcie dla ramu i mostków (N-S) , że by się mi uruchomił jak zanadto go przetaktuje 8)

 

nadal nie rozumiem dlaczego pewnego razu miałem 6GB/s write na RAMie prz zwiększeniu krotności dla CPU z x12,5 do x14

 

a oto Cache & Memory Benchmark z Everesta(org Ghz dla CPU to 2,5):

post-0-13187858089542_thumb.jpg

Share this post


Link to post
Share on other sites
Guest macintosh

osiągnąłem 6,2GB/s write na RAMie

Sebaci cz mógłbyś wrzucić swoje wyniki?

 

już wiem jak kombinowac - ale dziś nic nie zadziałam, bo muszę chłonąć WIEDZĘ!!

 

cholera coś  jest nie tak - kilka chwil później żeby się nacieszyc uruchomiłem bench'a ponownie - i o to co się pokazało(obrazek 2i) - bez zadnego przestwiania :-\ :

post-0-13187858089753_thumb.jpg

post-0-13187858089981_thumb.jpg

Share this post


Link to post
Share on other sites

Mnożnik CPU zostaw w spokoju (daj na domyślny). Kręć HTT (FSB) i wtedy patrz na wyniki.

Przepustowość na CPU <-> RAM Ci się prawie nie zwiększyła. A ten wynik pow. 6k to jakiś wyjątek. Nie wiem skąd taki pomiar.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Microsoft zatrudnił byłego projektanta układów scalonych Apple'a, , który wcześniej pracował też w firmach Arm i Intel,  trafił do grupy kierowanej przez Raniego Borkara, zajmującej się rozwojem chmury Azure. Zatrudnienie Filippo wskazuje, że Microsoft chce przyspieszyć prace nad własnymi układami scalonymi dla serwerów tworzących oferowaną przez firmę chmurę. Koncern idzie zatem w ślady swoich największych rywali – Google'a i Amazona.
      Obecnie procesory do serwerów dla Azure są dostarczane przez Intela i AMD. Zatrudnienie Filippo już odbiło się na akcjach tych firm. Papiery Intela straciły 2% wartości, a AMD potaniały o 1,1%.
      Filippo rozpoczął pracę w Apple'u w 2019 roku. Wcześniej przez 10 lat był głównym projektantem układów w firmie ARM. A jeszcze wcześniej przez 5 lat pracował dla Intela. To niezwykle doświadczony inżynier. Właśnie jemu przypisuje się wzmocnienie pozycji układów ARM na rynku telefonów i innych urządzeń.
      Od niemal 2 lat wiadomo, że Microsoft pracuje nad własnymi procesorami dla serwerów i, być może, urządzeń Surface.
      Giganci IT coraz częściej starają się projektować własne układy scalone dla swoich urządzeń, a związane z pandemią problemy z podzespołami tylko przyspieszyły ten trend.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Przed dwoma laty Microsoft rozpoczął interesujący eksperyment. Firma zatopiła u wybrzeża Orkadów centrum bazodanowe. Teraz wydobyto je z dna, a eksperci przystąpili do badań dotyczących jego wydajności i zużycia energii. Już pierwsze oceny przyniosły bardzo dobre wiadomości. W upakowanym serwerami stalowym cylindrze dochodzi do mniejszej liczby awarii niż w konwencjonalnym centrum bazodanowym.
      Okazało się, że od maja 2018 roku zawiodło jedynie 8 a 855 serwerów znajdujących się w cylindrze. Liczba awarii w podwodnym centrum bazodanowym jest 8-krotnie mniejsza niż w standardowym centrum na lądzie, mówi Ben Cutler, który stał na czele eksperymentu nazwanego Project Natick. Eksperci spekulują, że znacznie mniejszy odsetek awarii wynika z faktu, że ludzie nie mieli bezpośredniego dostępu do serwerów, a w cylindrze znajdował się azot, a nie tlen, jak ma to miejsce w lądowych centrach bazodanowych. Myślimy, że chodzi tutaj o atmosferę z azotu, która zmniejsza korozję i jest chłodna oraz o to, że nie ma tam grzebiących w sprzęcie ludzi, mówi Cutler.
      Celem Project Natic było z jednej strony sprawdzenie, czy komercyjnie uzasadnione byłoby tworzenie niewielkich podwodnych centrów bazodanowych, która miałyby pracować niezbyt długo. Z drugiej strony chciano sprawdzić kwestie efektywności energetycznej chmur obliczeniowych. Centra bazodanowe i chmury obliczeniowe stają się coraz większe i zużywają coraz więcej energii. Zużycie to jest kolosalne. Dość wspomnieć, że miliard odtworzeń klipu do utworu „Despacito” wiązało się ze zużyciem przez oglądających takiej ilości energii, jaką w ciągu roku zużywa 40 000 amerykańskich gospodarstw domowych. W skali całego świata sieci komputerowe i centra bazodanowe zużywają kolosalne ilości energii.
      Na Orkadach energia elektryczna pochodzi z wiatru i energii słonecznej. Dlatego to właśnie je Microsoft wybrał jako miejsce eksperymentu. Mimo tego, podwodne centrum bazodanowe nie miało żadnych problemów z zasilaniem. Wszystko działało bardzo dobrze korzystając ze źródeł energii, które w przypadku centrów bazodanowych na lądzie uważane są za niestabilne, mówi jeden z techników Project Natick, Spencer Fowers. Mamy nadzieję, że gdy wszystko przeanalizujemy, okaże się, że nie potrzebujemy obudowywać centrów bazodanowych całą potężną infrastrukturą, której celem jest zapewnienie stabilnych dostaw energii.
      Umieszczanie centrów bazodanowych pod wodą może mieć liczne zalety. Oprócz już wspomnianych, takie centra mogą być interesującą alternatywą dla firm, które narażone są na katastrofy naturalne czy ataki terrorystyczne. Możesz mieć centrum bazodanowe w bardziej bezpiecznym miejscu bez potrzeby inwestowania w całą infrastrukturę czy budynki. To rozwiązanie elastyczne i tanie, mówi konsultant projektu, David Ross. A Ben Cutler dodaje: Sądzimy, że wyszliśmy poza etap eksperymentu naukowego. Teraz pozostaje proste pytanie, czy budujemy pod wodą mniejsze czy większe centrum bazodanowe.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Microsoft ponownie będzie dostarczał użytkownikom Windows 10 poprawki niezwiązane z bezpieczeństwem. Jak wcześniej informowaliśmy, w związku z pandemią koronawirusa koncern zmienił sposób pracy i od maja dostarczał wyłącznie poprawki związane z bezpieczeństwem.
      Chris Morrissey z Microsoftu ogłosił na firmowym blogu, że od lipca dostarczane będą wszystkie poprawki dla Windows 10 oraz Windows Server dla wersji 1809 i nowszych. Kalendarz ich publikacji będzie taki, jak wcześniej, zatem dostęp do nich zyskamy w Update Tuesday. Koncern zapowiada też pewne zmiany, które mają na celu uproszczenie procesu aktualizacji.
      Zmiany takie obejmą nazewnictwo poprawek oraz sposób dostarczania poprawek do testów dla firm i organizacji. Zmian mogą się też spodziewać osoby i organizacja biorące udział w Windows Insider Program oraz Windows Insider Program for Business.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Grupa hakerska Shiny Hunters włamała się na GitHub-owe konto Microsoftu, skąd ukradła 500 gigabajtów danych z prywatnych repozytoriów technologicznego giganta. Dane te zostały następnie upublicznione na jednym z hakerskich forów. Nic nie wskazuje na to, by zawierały one jakieś poufne czy krytyczne informacje.
      Ataku dokonali ci sami przestępcy, którzy niedawno ukradli dane 91 milionów użytkowników największej indonezyjskiej platformy e-commerce Tokopedii i sprzedali je za 5000 USD. Jak mówią eksperci, Shiny Hunters zmienili w ostatnim czasie taktykę.
      Na dowód dokonania ataku na konto Microsoftu hakerzy dostarczyli dziennikarzom zrzut ekranowy, na którym widzimy listę prywatnych plików developerów Microsoftu. Początkowo przestępcy planowali sprzedać te dane, ale w końcu zdecydowali się udostępnić je publicznie.
      Jako, że w ukradzionych danych znajduje się m.in. tekst i komentarze w języku chińskim, niektórzy powątpiewają, czy rzeczywiście są to pliki ukradzione Microsoftowi. Jednak, jak zapewniają redaktorzy witryny Hack Read, ukradziono rzeczywiście pliki giganta z Redmond. Przedstawiciele Shiny Hunters informują, że nie mają już dostępu do konta, które okradli. Microsoft może zatem przeprowadzić śledztwo i poinformować swoich klientów o ewentualnych konsekwencjach ataku. Sama firma nie odniosła się jeszcze do informacji o włamaniu.
      GitHub to niezwykle popularna platforma developerska używana do kontroli wersji, z której korzysta 40 milionów programistów z całego świata. W październiku 2018 roku została ona zakupiona przez Microsoft za kwotę 7,5 miliarda dolarów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Microsoft to kolejny, po Google'u, światowy gigant IT, który podpisał umowę o partnerstwie z Operatorem Chmury Krajowej, czyli spółki założonej przed dwoma laty przez PKO BP i Polski Fundusz Rozwoju. Jak czytamy w oświadczeniu Microsoftu, firma ogłosiła dzisiaj kompleksowy plan inwestycyjny o wartości 1 miliarda dolarów, którego celem jest przyspieszenie innowacji i cyfrowej transformacji na rzecz rozwoju Polskiej Doliny Cyfrowej.
      Fundamentem tego wielopoziomowego planu jest otwarcie nowego regionu data center Microsoft w Polsce, w ramach globalnej infrastruktury chmury obliczeniowej, który ma zapewnić krajowemu ekosystemowi startupów, przedsiębiorców, firm i instytucji publicznych dostęp do bezpiecznych usług chmury obliczeniowej klasy enterprise. Microsoft i Operator Chmury Krajowej podpisali strategiczne porozumienie, którego celem jest zapewnienie eksperckiej wiedzy z zakresu transformacji cyfrowej i szerokiego dostępu do rozwiązań chmurowych dla wszystkich branż i przedsiębiorstw w Polsce.
      Istotnym elementem ogłoszonej dzisiaj inwestycji jest kompleksowy i długoterminowy program podnoszenia kwalifikacji, który w efekcie pozwoli lokalnym specjalistom i młodzieży zwiększyć szanse zatrudnienia. Microsoft ma na celu rozwój kompetencji cyfrowych około 150 000 pracowników, specjalistów IT, nauczycieli, studentów i obywateli. W ten sposób firma dąży do zwiększenia konkurencyjności polskich przedsiębiorstw i osób prywatnych na rynku oraz ułatwienia polskim pracownikom skutecznego wprowadzania innowacji i wdrażania strategii transformacji cyfrowej swoich organizacji przy wykorzystaniu możliwości chmury obliczeniowej.
      Program rozwoju umiejętności będzie obejmował szkolenia, programy e-learningowe, warsztaty i hakatony dotyczące przetwarzania w chmurze, wykorzystania technologii AI i uczenia maszynowego, przetwarzania dużych zbiorów danych (Big Data) i Internetu rzeczy (Internet of Things). W ramach podejmowanych działań, Microsoft zwróci szczególną uwagę na zapewnienie dostępu do technologii osobom z niepełnosprawnościami oraz narzędzi i programów podnoszących umiejętności, co w efekcie pozwoli im zwiększyć możliwości zatrudnienia.
      Nowy region data center będzie oferował dostęp do pełnej oferty Microsftu, zarówno Azure, Microsoft 365, jak i Dynamics 365 oraz Power Platform.
      Partnerstwo z Microsoftem pozwala OChK na dodatkową dywersyfikację oferty. Rozszerza ją o rozwiązania platformy chmurowej Azure, m.in. usługi infrastruktury sieciowej, baz danych, analityki, sztucznej inteligencji (AI) i Internetu rzeczy (IoT). W ofercie OChK znajdą się także rozwiązania Microsoft 365, zapewniające dostęp do aplikacji zwiększających produktywność, dostępnych jako usługa w chmurze i dostarczanych jako część otwartej platformy wspierającej procesy biznesowe. Już od momentu podpisania umowy Microsoft i OChK będą wspólnie wspierać przedsiębiorstwa i instytucje świadczące usługi doradcze, wdrożeniowe i opracowując projekty transformacyjne, na korzystnych rynkowo warunkach.
      Polska ma szansę być cyfrowym sercem Europy. Dlatego dzisiaj ogłaszamy partnerstwo z Operatorem Chmury Krajowej i największą w historii kraju inwestycję w technologię cyfrową wynoszącą 1 miliard dolarów. W ramach inwestycji planujemy działania na rzecz rozwoju kompetencji cyfrowych, wsparcie transformacji i budowę pierwszego w Europie Środkowo-Wschodniej, bezpiecznego i zaufanego regionu centrum przetwarzania danych w chmurze Microsoft o globalnej skali. Oznacza to dostęp do światowej klasy technologii, a w szczególności rozwiązań chmurowych, z poziomu data center zlokalizowanego w Polsce - powiedział Mark Loughran, dyrektor generalny polskiego oddziału Microsoft.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...