Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Ballmer zaprezentował Windows 7 Beta 1

Rekomendowane odpowiedzi

Podczas targów CES 2009 Microsoft oficjalnie pokazał pierwszą wersję beta systemu operacyjnego Windows 7. Jej nielegalne kopie już od pewnego czasu krążą w Sieci, a jutro Windows 7 Beta 1 zostanie udostępniona na witrynie Microsoftu. Obraz ISO ma objętość 2,7 GB.

Naprawdę uważam, że Windows 7 to najlepszy system operacyjny, jaki kiedykolwiek stworzyliśmy"- stwierdził Steve Ballmer. Zachęcam wszystkich do pobrania go - dodał.

W obecnej edycji OS-u znajdziemy m.in. mechanizm HomeGroup, który umożliwia łatwe wyszukiwanie komputerów w sieci lokalnej i dzielenie się zasobami. Ponadto włączono do niego mechanizm Libraries, ułatwiający organizowanie plików, niezależnie od tego, na jakiej maszynie są przechowywane.

Windows 7 Beta 1 zawiera też technologię Direct Access. Przydatna będzie ona przede wszystkim dla biznesu, gdyż pozwala pracownikom na bezpieczne podłączenie urządzenia przenośnego do firmowej sieci, bez konieczności ustanawiania połączenia VPN. Drugim z przydatnych mechanizmów jest BranchCache odpowiedzialny za tworzenie lokalnej pamięci cache do przechowywania plików ze zdalnych serwerów. Z obu mechanizmów skorzystają jednak tylko te przedsiębiorstwa, których infrastruktura oparta jest na platformie Windows Server 2008 R2.

Z kolei wśród dodatków dla przeciętnego użytkownika warto wymienić nowy Windows Live, a w nim ulepszone wersje Messengera i Photo Gallery, ułatwiające integrację pomiędzy serwisami społecznościowymi, galeriami i komunikatorem.

W Windows 7 znajdziemy też znaną z Visty funkcję BitLocker. Szyfruje ona wszystkie partycje dysku twardego, zabezpieczając nas przed utratą danych w przypadku kradzieży komputera. W nowym systemie nazwę funkcji zmieniono na BitLocker To Go, a jej możliwości rozszerzono o szyfrowanie napędów zewnętrznych. Znacznie uproszczono też obsługę i konfigurację tego narzędzia.

Użytkownicy systemu Vista najczęściej chyba krytykowali mechanizm UAC (User Account Control), który zasypywał ich licznymi komunikatami dotyczącymi bezpieczeństwa wykonywanych czynności. Często z tego powodu UAC był przez użytkowników w ogóle wyłączany. Jak poinformował Microsoft, celem wprowadzenia UAC nie było zniechęcenie użytkownika, a wymuszenie na producentach oprogramowania takiego pisania software'u, by jego obsługa jak najrzadziej wymagała zwiększonych uprawnień. Microsoft osiągnął swój cel - liczba programów wywołujących UAC znacząco spadła. W Windows 7 znienawidzony przez wielu mechanizm został zastąpiony AppLockerem. To narzędzie, które przyda się przede wszystkim administratorom. Pozwala bowiem na wprowadzenie kontroli nad uruchamianymi programami poprzez stworzenie "białej listy" dozwolonych aplikacji.

Najważniejszy jednak jest fakt, że Windows 7 Beta 1 pracuje bardziej wydajnie i zużywa mniej zasobów komputera niż Windows Vista. Instalacja systemu przebiega szybciej i wymaga mniej interakcji od użytkownika. Z systemu usunięto wiele aplikacji, które jednak można pobrać z Windows Live.

Minimalne wymagania sprzętowe to procesor taktowany zegarem o częstotliwości 1 GHz, 1 gigabajt pamięci RAM, 16 gigabajtów miejsca na dysku twardym, układ graficzny obsługujący DX9 i mający do dyspozycji 128 megabajtów pamięci oraz napęd DVD. Są więc one bardzo podobne do wymagań Visty sprzed trzech lat.

Microsoft twierdzi, że w Beta 1 znalazły się wszystkie narzędzia i mechanizmy, które trafią do gotowego Windows 7. Może to oznaczać, że nie zajdą już w nim większe zmiany, a więc system nie straci na chwalonej przez pierwszych użytkowników wydajności. Koncern zastrzegł jednak, że podane minimalne wymagania dotyczą tylko wersji Beta 1 i mogą jeszcze ulec zmianie.
Wszystko zależy więc od kolejnych działań Redmond.

Obecnie nie wiadomo czy, skoro w pełnym wydaniu Windows 7 nie mają zajść żadne większe zmiany, zostanie opublikowana jeszcze jakaś wersja beta.

Instalując Windows 7 Beta 1 warto również pamiętać o zapisach licencyjnych, z których wynika, że oprogramowanie przestanie działać 1 sierpnia bieżącego roku oraz o ostrzeżeniu Microsoftu, by wersji beta nie instalować w środowiskach produkcyjnych oraz tam, gdzie wymagana jest stabilna, niezakłócona praca.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Stalo sie podobnie jak to mialo miejsce z Windows Milenium. Microsoft wypuscil na swiat system tylko po to, zeby swiat przetestowal nowe prototypowe rozwiazania po czym wydano przejsciowke jaka byl 2000 pro a potem juz gotowy produkt czyli XP. Tak wlasnie sie stalo z Windows Vista tylko tym razem zrobili to z wieksza premedytacja , generalnie rzecz biorac Vista byl ludziom doslownie wciskany. Wszystkie wielkie firmy typu Dell, HP etc. sprzedawaly sprzet wylacznie z Windows Vista, czasem za oplata mozna bylo kupic komputer z XP. Masa uzytkownikow dostala zatem Viste i nawet o tym nie wiedzac automatycznie wstepowala w szeregi "gamma - testerow". Wyniki testow zatem najwyrazniej dotraly do MS po czym wydano na swiat Windows Vista pod nazwa "Seven" jednakze, jestem w stanie uwierzyc ze juz bez bledow jakie posiada biezacy produkt. Sevem znowu pociagnie chwile po to, zeby na swiat wyszedl produkt, ktory zastygnie na rynku z 5-6 lat po czym sytuacja sie powtorzy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sugerujesz, że Windows 7 to taki system przejściowy, jak Vista?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sugerujesz, że Windows 7 to taki system przejściowy, jak Vista?

Z Microsoftem tak bywa, ze dopiero co 3 system ma rece i nogi :)

 

3.11

95

98

Milenium

2000 pro

XP

Vista

Seven

Eight

 

Choc niewykluczone, ze Seven bedzie odpowiednikiem XP w kategorii udane co nie zmienia faktu, ze Vista niczym sie nie rozni od milenium. SYF KILA I MOGILA.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie wymieniłeś całej masy systemów (chociażby wersje wcześniejsze od 3.11 czy wersje NT), więc mówienie o "co trzecim" nie jest prawdziwe (tym bardziej, że Win98 to była tragedia).

Ponadto, kolejny OS Microsoftu ukaże się nie za 5-6 lat, a najprawdopodobniej za jakieś 3-5.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Toć kolega lobo właśnie sugeruje, że siódemka też jest przejściówką. Faktycznie, też ostatnio na to zwróciłem uwagę. Do tej pory niewielka cześć użytkowników zdążyła przerzucić się na Vistę (ja np jeszcze nie), a już chcą wprowadzać na rynek nowy system. Jednak myślę, że jeśli faktycznie siódemka będzie pozbawiona wad Visty nikomu nie będzie się chciało prędko przerzucać na coś jeszcze innego. Nawet z xp po tylu latach nie chętnie rezygnowano. A raczej dostawało się Vistę z nowym komputerem, a nie podejmowało jakąś świadomą decyzję. Więc tak sobie myślę, że jeśli któryś system zastygnie na dłużej na rynku to może to być właśnie siódemka.   

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A ja się nie zgodzę z tym że win 2000 był czymś przejściowym. To system do całkiem innych zadań. Tak samo jak Win 2003. Jeśli go sobie instalowałeś, na domowym sprzęcie i wymagałeś nie wiem czego to już nie wina systemu. Ja w domu nie używam Unixa na co dzień, tak jak Win 2000 :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Też się nie zgodzę. Choć fanem Windowsów nie jestem, Win2000 spełnia w znacznym stopniu moje podstawowe wymaganie: wymaganie niezawodności.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie wiem jak dla reszty ale dla mnie XP to byl i poki co jest system wszechczasow przynajmniej dla domowych uzytkownikow jakim jestem Ja. Nikt mi do mojej mozgownicy nie wmowi zadnego Linuxa innych dziwacznych wynalazkow.

 

Mam postawiona oryginalna wersje Xp64 i pirata x86, bo niestety do dwoch urzadzen nie zrobiono sterownikow pod XP64. Xp64 mam od dwoch lat nie przeinstalowanego i utracil moze 5%-10% na wydajnosci i to tylko za sprawa tego, ze uruchomionych mam wiecej procesow. Moglbym je w kazdej chwili odlaczyc i nadal cieszylbym sie XPkiem w pelnej okazalosci.

 

Co do Visty to z poczatku mialem o niej pozytywne zdanie, zauwazylem ze swietnie sobie radzi z zarzadaniem pamiecia, ot chocby FireFox lepiej chodzi i nie muli sie chocby z WoWem. ;) Aczkolwiek po dluzszym uzytkowaniu dzieja sie na tym systemie rzeczy niewyjasnione... a to wow nagle przestal sie wlaczac, to znowu RedAlert sie zawieszal, HoM&M3 sie wchodzil do Windowsa...a to wyskakiwaly bledy karty dzwiekowej i trzeba bylo resetowac system. Fakt, ze byl to laptop kolegii, ktory nie byl urodzonym informatykiem no ale takie rzeczy nie moga sie dziac od tak tymbardziej, ze komputer zabezpieczony antywirusem i firewallem. Nie wspomne, ze nie ma tak dobrej emulacji starych gierek jak to sie zapowiadali, ot co zrezygnowano kompletnie z IPX co tez uniemozliwilo pogranie po sieci w starsze gierki. Tak samo zrobil sie katalog nazwany Games a w nim wszystkie zainstalowane gierki szkoda tylko, ze nie dalo sie ich z tej pozycji uruchomic :) Jeszcze te alerty non stop ala "czy jestes pewien, ze chccesz uruchomic ten program", na touchpadzie to istny koszmar wedrowac ciagle kursorem po ekranie wciskajac szeregi przyciskow "OK". Faktem jest, ze mozna wylaczyc te rozne informacje, szkoda tylko ze przecietny kowalski nie jest w stanie tego zrobic chocby krok po kroku z tutoriala. Po trzecie to cale centrum sieciowe jest jakies takie nijakie...

 

do patrykus:

Co do seven podkreslilem, ze nie wykluczam mozliwosci iz bedzie wlasnie XPkiem drugiej dekady XXI wieku.

Bo nie uwazam, zeby w 2009 byl niezawodny. Z reszta XP bez SP tez nie jest. Tak, ze przyjdzie nam jeszcze poczekac chwile, az nasz komputer odsapnie spokojnie.

 

do Mariusza:

Co do Windowsa NT, nie uwazam to za system, a raczej W98 z systemem plikow NTFS, tak samo nie uwazam, zeby systemy przed Win 3.11 mialy jakiekolwiek znaczenie dla Microsoft a juz tym bardziej dla mnie. Dinozaury jedynie pamietaja, maszyny z systemem 3.11-

 

I nie zgodze sie z tym, ze win98 byl tragedia. Po odpowiednim updatcie i z pachtowaniu byl dla mnie systemem niemalze niezawodnym, dlugo nie moglem sie pogodzic chocby z faktem braku DOSA w kolejnych wersjach Windowsow.

 

 

do Thibris:

Co do Win2000, uwazam, ze to poczatkowa faza XP. XP odziedziczyl wlasnie po nim wiekszosc ulepszonych rozwiazan a nie po Milenium dlatego potraktowalem go za przejsciowke. Ot co XP Professional nie jest skierowany dla graczy. Jest systemem do innych zadan jak to okresliles.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

2000 - NT 5.0

XP - NT 5.1

 

Vista - NT 6.0

Se7en - NT 6.1

 

Zabawne jest to, że niektórzy ludzie wyśmiewają Win7, że jest to przerobiona, ulepszona Vista, podczas gdy o XP można powiedzieć to samo względem 2000... Nie mówiąc już o tym, że gdy wyszedł XP to też na niego dużo narzekano przez jakiś czas.

 

Windows 7 nie jest żadną przejściówką. System ten jest następcą Visty i będzie służył przez następnych parę lat. Jak na razie opinie są bardzo dobre, a z testów wynika, że jest szybszy od Visty i XP. U mnie niestety się to nie sprawdza, ale mam stary, kilkuletni komputer. I tak chodzi przyzwoicie, mniej zajmuje, zużywa zdecydowanie mniej ramu. Obsługa ekranów dotykowych, multi-touch, narzędzia dla tabletpc, całkiem nowy pasek zadań i inne rzeczy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A może poczekajcie z oceną jakości i funkcjonalności systemu, aż ktokolwiek z Was położy na nim swoje szanowne łapki? :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No i wielkie ściąganie najnowszego windowsa ruszyła. Serwery pękają w szwach, więc sobie spokojnie czekam na właściwy moment. A jestem ciekawy najbardziej zabezpieczeń przed piractwem. Bo skoro, jak słychać na mieście to podobno bardzo udany soft, to nielegalne kopie będą wyrastać jak grzyby po deszczu. A wiadomo Bill tego nie cierpi, więc ja się spodziewam róznych nowych zabezpieczeń. No ale zobaczymy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Fajnie wiedzieć że z kompem zapłaciłem za przejściowy szajs, chociaż go nie chciałem >:)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Fajnie wiedzieć że z kompem zapłaciłem za przejściowy szajs, chociaż go nie chciałem >;)

 

Trza było samemu złożyć, bądź poprosić znajomego informatyka o pomoc. Nie musiałbyś płacić za niechciane aplikacje :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To jest laptop, a i tak go prawie tysia taniej kupiłem :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Laptopy też można bez systemu kupić, ale jeśli kupiłeś po okazyjnej cenie, to nie ma co narzekać chyba :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

trzeba bylo przeznaczyc 100PLN z tego tysiaka i kupic sobie XPeka na allegro :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

tyle że już tego tysiaka nie miałem ;)

Narzekać faktycznie nie mam na co :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Microsoft zatrudnił byłego projektanta układów scalonych Apple'a, , który wcześniej pracował też w firmach Arm i Intel,  trafił do grupy kierowanej przez Raniego Borkara, zajmującej się rozwojem chmury Azure. Zatrudnienie Filippo wskazuje, że Microsoft chce przyspieszyć prace nad własnymi układami scalonymi dla serwerów tworzących oferowaną przez firmę chmurę. Koncern idzie zatem w ślady swoich największych rywali – Google'a i Amazona.
      Obecnie procesory do serwerów dla Azure są dostarczane przez Intela i AMD. Zatrudnienie Filippo już odbiło się na akcjach tych firm. Papiery Intela straciły 2% wartości, a AMD potaniały o 1,1%.
      Filippo rozpoczął pracę w Apple'u w 2019 roku. Wcześniej przez 10 lat był głównym projektantem układów w firmie ARM. A jeszcze wcześniej przez 5 lat pracował dla Intela. To niezwykle doświadczony inżynier. Właśnie jemu przypisuje się wzmocnienie pozycji układów ARM na rynku telefonów i innych urządzeń.
      Od niemal 2 lat wiadomo, że Microsoft pracuje nad własnymi procesorami dla serwerów i, być może, urządzeń Surface.
      Giganci IT coraz częściej starają się projektować własne układy scalone dla swoich urządzeń, a związane z pandemią problemy z podzespołami tylko przyspieszyły ten trend.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Przed dwoma laty Microsoft rozpoczął interesujący eksperyment. Firma zatopiła u wybrzeża Orkadów centrum bazodanowe. Teraz wydobyto je z dna, a eksperci przystąpili do badań dotyczących jego wydajności i zużycia energii. Już pierwsze oceny przyniosły bardzo dobre wiadomości. W upakowanym serwerami stalowym cylindrze dochodzi do mniejszej liczby awarii niż w konwencjonalnym centrum bazodanowym.
      Okazało się, że od maja 2018 roku zawiodło jedynie 8 a 855 serwerów znajdujących się w cylindrze. Liczba awarii w podwodnym centrum bazodanowym jest 8-krotnie mniejsza niż w standardowym centrum na lądzie, mówi Ben Cutler, który stał na czele eksperymentu nazwanego Project Natick. Eksperci spekulują, że znacznie mniejszy odsetek awarii wynika z faktu, że ludzie nie mieli bezpośredniego dostępu do serwerów, a w cylindrze znajdował się azot, a nie tlen, jak ma to miejsce w lądowych centrach bazodanowych. Myślimy, że chodzi tutaj o atmosferę z azotu, która zmniejsza korozję i jest chłodna oraz o to, że nie ma tam grzebiących w sprzęcie ludzi, mówi Cutler.
      Celem Project Natic było z jednej strony sprawdzenie, czy komercyjnie uzasadnione byłoby tworzenie niewielkich podwodnych centrów bazodanowych, która miałyby pracować niezbyt długo. Z drugiej strony chciano sprawdzić kwestie efektywności energetycznej chmur obliczeniowych. Centra bazodanowe i chmury obliczeniowe stają się coraz większe i zużywają coraz więcej energii. Zużycie to jest kolosalne. Dość wspomnieć, że miliard odtworzeń klipu do utworu „Despacito” wiązało się ze zużyciem przez oglądających takiej ilości energii, jaką w ciągu roku zużywa 40 000 amerykańskich gospodarstw domowych. W skali całego świata sieci komputerowe i centra bazodanowe zużywają kolosalne ilości energii.
      Na Orkadach energia elektryczna pochodzi z wiatru i energii słonecznej. Dlatego to właśnie je Microsoft wybrał jako miejsce eksperymentu. Mimo tego, podwodne centrum bazodanowe nie miało żadnych problemów z zasilaniem. Wszystko działało bardzo dobrze korzystając ze źródeł energii, które w przypadku centrów bazodanowych na lądzie uważane są za niestabilne, mówi jeden z techników Project Natick, Spencer Fowers. Mamy nadzieję, że gdy wszystko przeanalizujemy, okaże się, że nie potrzebujemy obudowywać centrów bazodanowych całą potężną infrastrukturą, której celem jest zapewnienie stabilnych dostaw energii.
      Umieszczanie centrów bazodanowych pod wodą może mieć liczne zalety. Oprócz już wspomnianych, takie centra mogą być interesującą alternatywą dla firm, które narażone są na katastrofy naturalne czy ataki terrorystyczne. Możesz mieć centrum bazodanowe w bardziej bezpiecznym miejscu bez potrzeby inwestowania w całą infrastrukturę czy budynki. To rozwiązanie elastyczne i tanie, mówi konsultant projektu, David Ross. A Ben Cutler dodaje: Sądzimy, że wyszliśmy poza etap eksperymentu naukowego. Teraz pozostaje proste pytanie, czy budujemy pod wodą mniejsze czy większe centrum bazodanowe.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Microsoft ponownie będzie dostarczał użytkownikom Windows 10 poprawki niezwiązane z bezpieczeństwem. Jak wcześniej informowaliśmy, w związku z pandemią koronawirusa koncern zmienił sposób pracy i od maja dostarczał wyłącznie poprawki związane z bezpieczeństwem.
      Chris Morrissey z Microsoftu ogłosił na firmowym blogu, że od lipca dostarczane będą wszystkie poprawki dla Windows 10 oraz Windows Server dla wersji 1809 i nowszych. Kalendarz ich publikacji będzie taki, jak wcześniej, zatem dostęp do nich zyskamy w Update Tuesday. Koncern zapowiada też pewne zmiany, które mają na celu uproszczenie procesu aktualizacji.
      Zmiany takie obejmą nazewnictwo poprawek oraz sposób dostarczania poprawek do testów dla firm i organizacji. Zmian mogą się też spodziewać osoby i organizacja biorące udział w Windows Insider Program oraz Windows Insider Program for Business.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Grupa hakerska Shiny Hunters włamała się na GitHub-owe konto Microsoftu, skąd ukradła 500 gigabajtów danych z prywatnych repozytoriów technologicznego giganta. Dane te zostały następnie upublicznione na jednym z hakerskich forów. Nic nie wskazuje na to, by zawierały one jakieś poufne czy krytyczne informacje.
      Ataku dokonali ci sami przestępcy, którzy niedawno ukradli dane 91 milionów użytkowników największej indonezyjskiej platformy e-commerce Tokopedii i sprzedali je za 5000 USD. Jak mówią eksperci, Shiny Hunters zmienili w ostatnim czasie taktykę.
      Na dowód dokonania ataku na konto Microsoftu hakerzy dostarczyli dziennikarzom zrzut ekranowy, na którym widzimy listę prywatnych plików developerów Microsoftu. Początkowo przestępcy planowali sprzedać te dane, ale w końcu zdecydowali się udostępnić je publicznie.
      Jako, że w ukradzionych danych znajduje się m.in. tekst i komentarze w języku chińskim, niektórzy powątpiewają, czy rzeczywiście są to pliki ukradzione Microsoftowi. Jednak, jak zapewniają redaktorzy witryny Hack Read, ukradziono rzeczywiście pliki giganta z Redmond. Przedstawiciele Shiny Hunters informują, że nie mają już dostępu do konta, które okradli. Microsoft może zatem przeprowadzić śledztwo i poinformować swoich klientów o ewentualnych konsekwencjach ataku. Sama firma nie odniosła się jeszcze do informacji o włamaniu.
      GitHub to niezwykle popularna platforma developerska używana do kontroli wersji, z której korzysta 40 milionów programistów z całego świata. W październiku 2018 roku została ona zakupiona przez Microsoft za kwotę 7,5 miliarda dolarów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Microsoft to kolejny, po Google'u, światowy gigant IT, który podpisał umowę o partnerstwie z Operatorem Chmury Krajowej, czyli spółki założonej przed dwoma laty przez PKO BP i Polski Fundusz Rozwoju. Jak czytamy w oświadczeniu Microsoftu, firma ogłosiła dzisiaj kompleksowy plan inwestycyjny o wartości 1 miliarda dolarów, którego celem jest przyspieszenie innowacji i cyfrowej transformacji na rzecz rozwoju Polskiej Doliny Cyfrowej.
      Fundamentem tego wielopoziomowego planu jest otwarcie nowego regionu data center Microsoft w Polsce, w ramach globalnej infrastruktury chmury obliczeniowej, który ma zapewnić krajowemu ekosystemowi startupów, przedsiębiorców, firm i instytucji publicznych dostęp do bezpiecznych usług chmury obliczeniowej klasy enterprise. Microsoft i Operator Chmury Krajowej podpisali strategiczne porozumienie, którego celem jest zapewnienie eksperckiej wiedzy z zakresu transformacji cyfrowej i szerokiego dostępu do rozwiązań chmurowych dla wszystkich branż i przedsiębiorstw w Polsce.
      Istotnym elementem ogłoszonej dzisiaj inwestycji jest kompleksowy i długoterminowy program podnoszenia kwalifikacji, który w efekcie pozwoli lokalnym specjalistom i młodzieży zwiększyć szanse zatrudnienia. Microsoft ma na celu rozwój kompetencji cyfrowych około 150 000 pracowników, specjalistów IT, nauczycieli, studentów i obywateli. W ten sposób firma dąży do zwiększenia konkurencyjności polskich przedsiębiorstw i osób prywatnych na rynku oraz ułatwienia polskim pracownikom skutecznego wprowadzania innowacji i wdrażania strategii transformacji cyfrowej swoich organizacji przy wykorzystaniu możliwości chmury obliczeniowej.
      Program rozwoju umiejętności będzie obejmował szkolenia, programy e-learningowe, warsztaty i hakatony dotyczące przetwarzania w chmurze, wykorzystania technologii AI i uczenia maszynowego, przetwarzania dużych zbiorów danych (Big Data) i Internetu rzeczy (Internet of Things). W ramach podejmowanych działań, Microsoft zwróci szczególną uwagę na zapewnienie dostępu do technologii osobom z niepełnosprawnościami oraz narzędzi i programów podnoszących umiejętności, co w efekcie pozwoli im zwiększyć możliwości zatrudnienia.
      Nowy region data center będzie oferował dostęp do pełnej oferty Microsftu, zarówno Azure, Microsoft 365, jak i Dynamics 365 oraz Power Platform.
      Partnerstwo z Microsoftem pozwala OChK na dodatkową dywersyfikację oferty. Rozszerza ją o rozwiązania platformy chmurowej Azure, m.in. usługi infrastruktury sieciowej, baz danych, analityki, sztucznej inteligencji (AI) i Internetu rzeczy (IoT). W ofercie OChK znajdą się także rozwiązania Microsoft 365, zapewniające dostęp do aplikacji zwiększających produktywność, dostępnych jako usługa w chmurze i dostarczanych jako część otwartej platformy wspierającej procesy biznesowe. Już od momentu podpisania umowy Microsoft i OChK będą wspólnie wspierać przedsiębiorstwa i instytucje świadczące usługi doradcze, wdrożeniowe i opracowując projekty transformacyjne, na korzystnych rynkowo warunkach.
      Polska ma szansę być cyfrowym sercem Europy. Dlatego dzisiaj ogłaszamy partnerstwo z Operatorem Chmury Krajowej i największą w historii kraju inwestycję w technologię cyfrową wynoszącą 1 miliard dolarów. W ramach inwestycji planujemy działania na rzecz rozwoju kompetencji cyfrowych, wsparcie transformacji i budowę pierwszego w Europie Środkowo-Wschodniej, bezpiecznego i zaufanego regionu centrum przetwarzania danych w chmurze Microsoft o globalnej skali. Oznacza to dostęp do światowej klasy technologii, a w szczególności rozwiązań chmurowych, z poziomu data center zlokalizowanego w Polsce - powiedział Mark Loughran, dyrektor generalny polskiego oddziału Microsoft.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...