Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Windows 7 droższy niż sądzono

Recommended Posts

Analitycy Gartnera ostrzegają, że w środowisku biznesowym przejście na system Windows 7 może być droższe niż dotychczas sądzono. Najprawdopodobniej do takiego ruchu przygotowują się właściciele 250 milionów pecetów na całym świecie.

Rozpoczęcia dużej fali migracji na nowy system należy spodziewać się w przyszłym roku, gdy pojawi się Service Pack 1 dla Windows 7.

Jako, że migracji należy dokonać w dość krótkim czasie, Gartner radzi, by przedsiębiorstwa dobrze oszacowały koszty i, w razie potrzeby, nie wahały się zabrać pieniędzy z innych projektów, byle tylko sprawnie przeprowadzić migrację.

Analitycy Gartnera uważają, że firmy mogą realizować dwa rodzaje scenariuszy. Pierwszy to zakup nowego sprzętu z już zainstalowanym systemem operacyjnym. Dla przedsiębiorstwa, które wymieni w ten sposób około 10 000 pecetów koszt wyniesie od 1205 do 1999 dolarów za każdą maszynę. Decydująca w tym przypadku jest sprawność zarządzania migracją.

Drugi scenariusz przewiduje instalację systemu na już istniejącym sprzęcie komputerowym wraz z konieczną rozbudową tego sprzętu. Gartner szacuje, że rozbudowy takiej będzie wymagało około 25% komputerów zakupionych w ostatnich latach. Jeśli przedsiębiorstwo zdecyduje się na taki scenariusz to zaoszczędzi na zakupach sprzętu, ale musi spodziewać się wyższych kosztów związanych z samą zmianą platformy. Gartner uważa, że w takim przypadku, przy instalacji Windows 7 na 10 000 pecetów i koniecznej rozbudowie, koszty na pojedynczy komputer wyniosą od 1247 do 2069 USD. Ponadto rozbudowa komputerów może tylko odwlec w czasie konieczność ich wymiany, a zatem koszty zwiększą się w ciągu najbliższych lat. Użytkownicy będą musieli dokonywać w ciągu około 4 lat dwukrotnej migracji, zamiast jednokrotnej - czytamy w raporcie.

Analitycy zwracają też uwagę, że około 15% pracowników korporacji zajmuje się wprowadzaniem danych. Oni, zdaniem Gartnera, nie potrzebują nowego sprzętu i systemu operacyjnego. Najlepszym wyjściem jest wirtualizacja ich środowisk pracy.

Share this post


Link to post
Share on other sites

Jest drogo bo ma być drogo, a nie tanio. Poza tym w branży IT prawie wszystko zawsze kosztuje więcej niż się dotychczas sadziło.

 

Od tego zależą wskaźniki i inne słupki rozwoju branży IT który to jest pompowany bardziej niż potrzeba.

Dlaczego producenci sprzętu byli nie zadowoleni z Visty? no bo był to bubel to oczywiste ale przez to ludzie nie pobiegli po nowe komputery i nie dali im zarobić. Dlatego tez Linux świata nie podbije bo nikomu na tym nie zależy a wręcz przeszkadza.

Natomiast te same firmy z niego korzystają w rożnych miejscach często dość poważnych zastosowaniach i nie narzekają bo bywa lepszy lub tańszy.

Dzięki temu ze jest ciągły popyt producenci sprzętu nie muszą konkurować ze sobą cenowo. I teraz wiecie skąd się biorą pieniądze na pompowanie...

 

To Microsoft pompuje branże swoim pomysłem na systemy wydawane w reżimie czasowym który wymusza większa rotacje sprzętu niż konieczna. I w zasadzie wszyscy na tym korzystają na tyle ze włączyć z tym nikt nie zamierza. Weźmy na przykład Oracle któremu sola w oku jest Sunowski open office. Być może ktoś wykalkulował sobie ze jeśli Microsoft zarobi jeszcze więcej na swoim office to Oracle pośrednio zarobi jeszcze więcej. Jak by Linux zdominował świat to branża IT skurczyła by się o miliardy a to nikomu nie jest na rękę.

 

To ze Linuks jest darmowy nie oznacza ze jest tani to jest racja tylko ze po pierwsze długofalowo wychodzi na pewno taniej. A po drugie koszty które wpływają na to ze nie jest tani występują również po stronie Windowsa. Debian od dawien dawna wygląda względnie podobnie natomiast rozwój ma charakter raczej ewolucyjny. Natomiast jak siadałem do kolejnych wersji Windowsa to zawsze coś musieli pozmieniać albo poprzestawiać bez istotniej przyczyny.

 

Co do opinii specjalistów to wielkie firmy raczej nie będą się bawić z wymianą komponentów. Powiedzmy ze firma ma ileś tam na przykład Delli no i co można zrobić z takim czymś ramu ewentualnie dołożyć bo porocków czy wręcz całych płyt wymieniać nie ma sensu (w rozumieniu korporacyjnym, nie mówimy teraz o hobbystach). Bo zaraz się okaże ze za słaby zasilacz. Podjeżdża ciężarówka wrzucają stare podjeżdża inna wypakowują nowe. I w chwile pozamiatano wymianę sprzętu. Jak by mieli dłubać to by to miesiąc trwało przez który wszystko by dobrze działało albo nie.

Kolejne podejście to jest wirtualizacja i o tym wspomniano dość nie śmiałe jest to jednak fakt jednak na tym fakcie producenci sprzętu nie zarabiają (i woleli by zapomnieć) lub zarabiają ci z innego segmentu. A pudełka stojącego na biurku nikt nie rusza bo wszystko dzieje się w serwerowni.

 

Jak się na to spojrzy to 15% wprowadza dane 10% odbiera maile 5% wystawia faktury 15% przegada rożne strony internetowe, 20% obsługuje dedykowane oprogramowanie ... I nagle się okażę ze nowego systemu operacyjnego to nawet specjalnie nikt nie potrzebuje a taki na przykład bank może wirtualizować wszystko oprócz laptopów prezesów. Ktoś kiedyś rzucił żartem ap ropo długowieczności komputerów ze jakiś tam system w British Airways jest tak stary że już nie procują specjaliści którzy potrafili by zresetować i powtórnie go uruchomić.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Po 11 latach od premiery wysłużony Windows 7 odchodzi na emeryturę. Dzisiaj dobiegł końca okres rozszerzonego wsparcia dla tego systemu. Microsoft nie będzie już udostępniał dla niego poprawek bezpieczeństwa. Warto więc w ciągu najbliższych miesięcy pomyśleć o zaktualizowaniu systemu do nowej wersji.
      Na poprawki, ale już płatne, będą mogli liczyć jedynie użytkownicy wersji Enterprise oraz Pro. Użytkownicy edycji Enterprise będą musieli zapłacić 25 USD, a wersji Pro - 50 USD za rozszerzenie wsparcia do stycznia 2021 roku. Wsparcie będzie można przedłużyć o kolejne dwa lata, w każdym roku płacąc dwukrotnie więcej niż w roku wcześniejszym.
      Microsoft już od wielu miesięcy przypominał użytkownikom Windows 7, że okres wsparcia dobiega końca. Użytkownicy więc o tym wiedzieli. Ponadto jutro wyświetli im się pełnoekranowe powiadomienie, że okres wparcia właśnie się zakończył.
      Koncern z Redmond próbuje przekonać jak najwięcej użytkowników Windows 7 by zaczęli korzystać z Windows 10. Częściowo się to udaje. Jak bowiem donoszą firmy analityczne, rynek pecetów notuje właśnie pierwsze globalne wzrosty sprzedaży od roku 2011. Jest to związane z faktem, że firmy i użytkownicy indywidualni postanowili, przy okazji zmiany systemu operacyjnego, wymienić też komputery.
      Windows 7 jest wciąż niezwykle popularnym systemem i, jak twierdzą analitycy, mogą minąć jeszcze nawet 2 lata zanim jego rynkowe udziały spadną poniżej 10%. Przypomnijmy, że w przypadku równie popularnego Windows XP Microsoft wielokrotnie publikował łaty pomimo zakończenia okresu wsparcia.
      Windows 7 to prawdopodobnie ostatni system operacyjny, który będzie sprawiał Microsoftowi tego typu problemy. Wsparcie dla Windows 8 kończy się w 2023 roku i cały proces powinien przejść bez większych zakłóceń, gdyż system ma mniej niż 5% udziałów w rynku.
      Jeśli zaś chodzi o Windows 10 to jego model publikacji jest zupełnie inny. Dotychczas doświadczyliśmy zakończenia wsparcia dla wielu wersji Windows 10 i nie rodziło to żadnych większych problemów. W bieżącym roku zakończy się wsparcie dla trzech kolejnych wersji. W przypadku tego OS-u wystarczy, by użytkownicy dokonywali regularnych aktualizacji do kolejnych wersji.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W skali globu dane na temat migracji są obarczone poważnymi błędami. Tymczasem informacje takie mogą być niezwykle przydatne, na przykład dla rządów krajów, które z migracją muszą się mierzyć.
      W świątecznym numerze PNAS (Proceedings of the National Academy of Sciences) dwóch naukowców z University of Washington zaprezentowało nową metodę statystyczną oceny przepływu ludności pomiędzy krajami. Ich analizy wykazały, że poziom migracji, definiowanej jako przeniesienie się do innego państwa i pozostanie tam przez co najmniej rok, jest wyższy niż się ocenia. Jednocześnie jest dość stabilny. W latach 1990–2015 migracja zmieniała się w przedziale 1,1–1,3 procent populacji. Ponadto od roku 1990 do domów powróciło około 45% migrantów. To znacznie więcej niż pokazują inne szacunki.
      Lepsza ocena zjawiska migracji pomoże zarówno samym migrantom, jak i ludziom, którzy się nimi zajmują, stwierdza autor nowych badań, profesor statystyki i socjologii Adrian Raferty.
      Przygotowanie się na migracje nie jest proste. Potrzebujesz wszystkiego, od infrastruktury medycznej i personelu po szkoły podstawowe. Rządy potrzebują więc dokładnych informacji demograficznych, by się przygotować, dodaje uczony.
      Gdy przyjrzymy się danym uzyskanym za pomocą nowej metody zauważymy, że najwięcej ludzi migruje w ramach tych samych kontynentów i regionów geograficznych. Widoczne są tutaj dwa wyjątki. Mieszkańcy Ameryki Łacińskiej i Karaibów przenoszą się przede wszystkim do Ameryki Północnej, a mieszkańcy Oceanii migrują głównie do Europy. W przypadku wszystkich innych kontynentów i regionów największa migracja odbywa się wewnątrz nich.
      Badania wykazały, że nowa metoda jest dokładniejsza niż pozostałe. Jej autorzy przeprowadzili testy, które polegały na ocenie tej migracji, na temat której istnieją dobre wiarygodne dane, a uzyskane wyniki porównano z tymi danymi. Okazało się, że nowy model myli się w mniejszym stopniu niż inne.
      Model Raferty'ego i jego byłego studenta, Azose'a, pokazuje wyższą migrację niż inne modele przede wszystkim dlatego, że wykazuje wyższą niż inne migrację powrotną. Na przykład model ten twierdzi, że w latach 1990–2015 w każdym pięcioletnim okresie do domów powracało 67–87 milionów migrantów. Dla porównania, inny szeroko używany model, który oblicza minimalną ratę migracji, stwierdza, że w pięcioletnim okresie do domów powraca 34–46 milionów migrantów.
      Azose i Raferty rozbili też migrację na emigrację, migrację powrotną i migrację tranzytową, gdy migrant przemieszcza się pomiędzy dwoma krajami, z których żaden nie jest jego krajem urodzenia. Naukowcy wyliczają, że w latach 1990–2015 ponad 60% ruchu migracyjnego stanowiła emigracja. Migracja tranzytowa nigdy nie przekroczyła 9%, a migracja powrotna to aż 26–31 procent ruchu migrantów. W sumie w ciągu wspominanych 15 lat do swoich krajów rodzinnych powróciło około 45% migrantów.
      Interesująco wygląda zestawienie największych ruchów migracyjnych w latach 2010–2015. Największa emigracja miała wówczas miejsce z Meksyku do USA (2,1 miliona osób), z Syrii do Turcji (1,5 miliona) i z Syrii do Libanu (1,2 miliona). W tym samym czasie migracja powrotna objęła 1,3 miliona osób, które z USA wróciły do Meksyku, 380 000 wyjechało ze Zjednoczonych Emiratów Arabskich do Indii, a 358 000 przeniosło się z Ukrainy do Rosji. Z kolei migracja tranzytowa wyglądała następująco: z terytoriów palestyńskich do Jordanii za pośrednictwem Libii (141 000), z Sudanu Południowego do Etiopii za pośrednictwem Sudanu (73 000) oraz z Iraku do USA za pośrednictwem Syrii (55 000).

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Badania genetyczne ujawniły niespodziewane informacje na temat przybycia człowieka do Ameryki Środkowej i Południowej. Dowiadujemy się z nich, że w przeszłości doszło do dwóch nieznanych wcześniej epizodów wymiany genetycznej pomiędzy Ameryką Północną a Południową. Jeden z tych epizodów zaważył na składzie genetycznym całego kontynentu.
      Uzyskane wyniki wskazują, że przedstawiciele kultury Clovis, najstarszej szeroko rozpowszechnionej kultury Ameryki Północnej, mieli większy wpływ demograficzny na południe, niż dotychczas sądzono.
      W ramach najnowszych badań przeanalizowano genom 49 osób z Ameryki Środkowej i Południowej. Wiek analizowanych próbek sięgał nawet 11 000 lat. Wcześniej podobnej jakości analizy udawało się dokonać w przypadku próbek nie starszych niż 1000 lat.
      Międzynarodowy zespół naukowców, na którego czele stali specjaliści z Harvard Medical School opublikował wyniki swoich badań na łamach periodyku Cell. Dowiadujemy się z nich, że DNA spokrewnione z kulturą Clovis znaleziono na terenie dzisiejszych Belize, Chile i Brazylii. Pochodziło ono sprzed 9–11 tysięcy lat.
      Głównym naszym odkryciem było spostrzeżenie, że przedstawiciele północnoamerykańskiej kultury Clovis pochodzącej sprzed około 12 800 lat byli spokrewnieni z najstarszymi mieszkańcami Chile, Belize i Brazylii. To wspiera hipotezę mówiącą, że ludzie, którzy rozprzestrzenili kulturę Clovis po Ameryce Północnej, dotarli też do Ameryki Środkowej i Południowej, mówi Cosimo Posth z Instytutu Historii Człowieka im. Maxa Plancka.
      Jednak u współczesnych mieszkańców Ameryki Południowej nie ma pozostałości genetycznych po twórcach kultury Clovis. Nie ma ich też w materiale młodszym niż 9000 lat. To było nasze drugie odkrycie. Wykazaliśmy, że co najmniej 9000 lat temu doszło do wymiany genów na skalę kontynentalną, mówi profesor David Reich z Harvard Medical School.
      U obecnych mieszkańców Ameryki Południowej wyraźnie widać pokrewieństwo genetyczne z ludźmi, którzy dokonali wspomnianej wymiany. To zjawisko wyraźnie odmienne od tego, co widzimy w zachodniej Eurazji czy w Afryce, gdzie pozostało niewiele miejsc o tak długotrwałym dziedzictwie genetycznym.
      Drugi, nieznany dotychczas epizod migracji, widoczny jest w genomie starożytnych mieszkańców kalifornijskich Channel Islands, którzy – jak się właśnie okazało – już przed co najmniej 4200 laty byli spokrewnieni genetycznie z ludźmi zamieszkującymi Andy na południu dzisiejszego Peru.
      Naukowcy uważają, że jest bardzo mało prawdopodobne, by doszło do migracji z Channel Islands do Ameryki Południowej. Ich zdaniem pokrewieństwo genetyczne pomiędzy tymi regionami to skutek ruchów ludnościowych, które miały miejsce tysiące lat wcześniej. Prawdopodobnie miało to miejsce tysiące lat wcześniej, a my po prostu nie dysponujemy szczątkami, które by to  pokazywały. Istnieją dowody archeologiczne wskazujące, że około 5000 lat temu w Środkowych Andach doszło do dużych ruchów ludnościowych. Rozprzestrzenianie się poszczególnych podgrup może wyjaśniać, dlaczego znajdujemy to pokrewieństwo pochodzące z późniejszych okresów, wyjaśnia Nathan Nakatsuka z Harvard Medical School.
      Uczeni podkreślają, że ich obecne odkrycia mogą być dopiero wierzchołkiem góry lodowej. Już w niedalekiej przyszłości coraz doskonalsza technika może pozwolić na odkrycie kolejnych tajemnic. Konieczne będzie zdobycie szczątków ludzkich starszych niż 11 000 lat. Chociaż nawet okres 3–11 tysięcy lat temu nie jest dobrze zbadany. Brakuje nam danych z Amazonii, Karaibów i północnych części Ameryki Południowej. Nie wiemy zatem, jak populacja z tamtych terenów ma się do terenów już zbadanych. Uzupełnienie tej wiedzy powinno być priorytetem, uważa profesor Reich.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dwóch profesorów z University of Indiana przeprowadziło badania, z których wynika, że Amerykanie mają coraz mniejsze szanse, by spędzić całe życie zawodowe w jednej prywatnej firmie. Okazuje się bowiem, że przedsiębiorstwa istnieją coraz krócej.
      W przyszłym numerze Academy of Management Annals ukaże się artykuł, z którego dowiemy się, że od lat 60. gwałtownie zmniejsza się liczba przedsiębiorstw, które są w stanie utrzymać się na rynku przez 5, 10, 15 i 20 lat.
      Jeszcze w latach 60. ubiegłego wieku firmy, które weszły wówczas na giełdę miały 50% szans na to, że będą obchodziły 20. rocznicę istnienia. Jednak już te firmy, które na giełdzie pojawiły się w latach 90. miały tylko 20% szansy, że przetrwają 20 lat. Podobny proces widoczny jest także w przypadku, jeśli postawimy mniejsze wymagania co do czasu istnienia przedsiębiorstw. Spośród tych, które powstały w latach 60. aż 80% istniało 10 lat później. Dla firm, których giełdowy debiut nastąpił po roku 2000 odsetek ten wynosił już 50%. Analizy dokonane przez Rene Bakkera i Matthew Josefy'ego oparto na danych o 32 000 przedsiębiorstw notowanych na giełdzie w latach 1960-2015.
      Ten trend obrazuje ważne zmiany, jakie zaszły u podstaw przedsiębiorstw. Krótko istniejące, tymczasowe firmy, które są rozwiązywane po szybkim osiągnięciu założonych celów to coraz częstsze zjawisko w wielu działach gospodarki, stwierdzili naukowcy. Dawniej osoby zakładające i rozwijające przedsiębiorstwa robiły to z myślą o przekazaniu ich kolejnym pokoleniom. Historia amerykańskiej przedsiębiorczości to historia rodzinnych firm. Cała filozofia stojąca za zakładaniem spółek polegała na tym, by przedsiębiorstwo mogło przeżyć swojego założyciela, dając mu w pewnym sensie nieśmiertelność. Ironią losu jest obecnie, że wielkie przedsiębiorstwa nie istnieją obecnie dłużej, niż żyje ich założyciel. Coraz mniej z nich jest przekazywanych kolejnym pokoleniom.
      Klasyczne teorie zarządzania pozytywnie łączą długie istnienie firmy z jej wiarygodnością, nabywanym doświadczeniem i stabilnością. Jednak w niektórych kontekstach, np. w sektorze technologii, zaawansowany wiek firmy jest negatywnie postrzegany, gdyż promowana jest młodość i świeżość. Bakker i Josefy zadają więc pytanie, czy w USA nie mamy coraz częściej do czynienia z „jednorazowymi” przedsiębiorstwami, a ta jednorazowość jest odbiciem tymczasowości w innych aspektach życia społecznego. Uczeni uważają, że z jednej strony krótszy czas życia firm jest spowodowany coraz częstszymi połączeniami i przejęciami. Z drugiej jednak strony jest on też spowodowany kulturą biznesową, która promuje start-upy. Żyjemy w czasach, w których założenie i zlikwidowanie firmy jest łatwe. Wiele młodych przedsiębiorstw wydaje się skazanych na los „organizacyjnych supernowych”, świecą jasno i żyją krótko, stwierdza Bakker.
      Społeczeństwo często postrzega likwidację firmy jako klęskę, jednak czasem lepiej jest by firma upadła, niż trwała w stagnacji. Dzięki likwidacji uwalniane są zasoby i pracownicy, którzy mogą zacząć robić coś innego. Koniec jednej firmy może być początkiem sukcesu innej.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy z Jackson Laboratory prowadzili badania na młodych myszach z genetyczną podatnością na jaskrę. Zauważyli, że jednorazowe potraktowanie pojedynczego oka promieniami rentgena zapewnia przeważnie całkowitą ochronę przed chorobą prowadząca do postępującego i nieodwracalnego uszkodzenia nerwu wzrokowego i komórek zwojowych siatkówki. W dodatku ochronę na całe życie...
      Doktorzy Gareth Howell i Simon John posłużyli się też metodami genomicznymi, które miały pozwolić określić, jakie szlaki ulegają zmianie na samym początku choroby.
      Około 10 lat temu laboratorium Johna wykazało, że przygotowujące do przeszczepu szpiku kostnego napromienianie całego ciała zapewnia ochronę przed jaskrą. Rok później jaskry nie wykryto w 97% napromienianych oczu, w porównaniu do 20% oczu w grupie kontrolnej. Niecodzienne spostrzeżenie pokrywa się z obserwacjami epidemiologów śledzących losy osób, które przeżyły zrzucenie bomb atomowych na Nagasaki i Hiroszimę. O ile ekspozycja na promieniowanie zwiększała zapadalność na raka tarczycy i inne nowotwory, o tyle wydawała się chronić przed jaskrą.
      Ostatnie badanie laboratorium Johna demonstruje, że zabezpieczająco działa również napromienianie pojedynczego oka. W dodatku sprawdzają się dawki niższe niż zastosowane poprzednio. Zanim jednak przejdziemy do działań na ludziach, trzeba przeprowadzić badania na innych modelach zwierzęcych. Pozwolą one na ocenę skuteczności oraz bezpieczeństwa tego typu zabiegów.
      Studium wykazało, że w odpowiedzi na wczesny stres tkankowy do nerwu wzrokowego i siatkówki migrują monocyty, które wydzielają substancje uszkadzające nerw wzrokowy. Wnikanie monocytów, największych z leukocytów, wydaje się częściowo kontrolowane przez komórki śródbłonka, a więc wysoce wyspecjalizowaną wyściółkę naczyń. Radioterapia zmienia reakcję komórek endothelium na stres.
      Choć potrzeba dalszych badań, by zrozumieć, w jaki sposób napromienianie zapewnia długoterminową ochronę, wydaje się, że utrudnia ono przyleganie i migrację monocytów w rejony oka podatne na uszkodzenie nerwu - podsumowuje Howell.
×
×
  • Create New...