Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Do Komisji Europejskiej wpłynęła skarga na oprogramowanie Teams

Rekomendowane odpowiedzi

Twórcy Slacka, usługi internetowej zawierającej zestaw narzędzi do pracy grupowej, złożyli w Komisji Europejskiej skargę na postępowanie Microsoftu. Twierdzą, że koncern, dołączając narzędzia do pracy grupowej Teams do swojego pakietu Office 365, nadużywa swojej pozycji rynkowej i zagraża konkurencyjności.

Microsoft nielegalnie dołączył Teams do dominującego na rynku pakietu Office, zmuszając miliony użytkowników do zainstalowania Teams, blokując możliwość jego odinstalowania i ukrywając przed użytkownikami korporacyjnymi jego prawdziwe koszty, stwierdzili przedstawiciele Slacka.

Oprogramowanie Teams zadebiutowało przed trzema laty. Jest dostępne w ramach subskrypcji Office 365. Obecnie Teams ma 75 milionów aktywnych użytkowników dziennie. W ciągu miesiąca liczba jego użytkowników zwiększyła się o 31 milionów osób.
Slack pojawił się w 2015 roku i ma około 12 milionów użytkowników.

Microsoft już wcześniej miał kłopoty z powodu włączania swoich programów w inne oprogramowanie. Przed laty głośna była sprawa dołączenia przeglądarki Internet Explorer do systemu Windows. W 2009 roku Komisja Europejska i Microsoft zawarły ugodę, w ramach której koncern miał ułatwiać i propagować dostęp do przeglądarek konkurencji. Jednak w 2013 roku KE uznała, że firma nie spełniła warunków ugody i ukarała ją grzywną w wysokości ponad 500 milionów euro.

Microsoft wraca do swojego dawnego zachowania. Stworzyli słaby produkt, który naśladuje nasze rozwiązania, dołączyli go do dominującego na rynku Office'a, wymusili jego instalowanie i zablokowali możliwość jego odinstalowania. To kopia ich nielegalnego postępowania z czasów sporu o przeglądarki, mówi David Schellhase, główny prawnik Slacka.
Komisja Europejska zbada złożoną skargę i podejmie decyzję, czy wszcząć oficjalne śledztwo w tej sprawie.

Microsoft zauważa, że Teams zyskał wielką popularność w czasie pandemii, gdyż ma opcję organizowania wideokonferencji, której Slack nie posiada. Stworzyliśmy Teams by połączyć możliwość pracy grupowej z wideokonferencjami, gdyż tego chcieli klienci. W czasie pandemii rynek bardzo szybko zaakceptował Teams, a Slack ucierpiał, gdyż nie posiada modułu telekonferencji, oświadczyli przedstawiciele Microsoftu.

Nie dziwię się, że Slack złożył skargę, gdyż uważa, że ma szansę na jej pozytywne rozpatrzenie. Szef Slacka, Stuart Butterfield, mówił w przeszłości, co prawda nie postrzegają Microsoftu jako swojej bezpośredniej konkurencji, jednak czują, że Microsoft chce ich zniszczyć, mówi Irwin Lazar, dyrektor firmy analitycznej Nemertes Research.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To jest ciekawy temat. Człowiek, jeśli jest zwolennikiem kapitalizmu (a większość rozsądnych chyba jest) widząc coś takiego najpierw się krzywi. Ale jest w tym pewien haczyk. Nasze neoliberalne poglądy (oczywiście nie kazdego) zawierają pzreświadczenie że rynek się sam steruje (zasada wolnego rynku) i że najlepiej pozostawić go samemu sobie. Natomiast z tego co gdzies kiedyś czytałem na temat teorii ekonomicznych, teorii gier etc. takie założenie jest generalnie słuszne, ale musze być spełnione dwa warunki (!) - 1. Runek musi być stabilny; 2. Rynek musi mieć regulację antymonopolistyczną, ponieważ przy zbyt małej liczbie producentów rynek sam sobei nie poradzi z monopolistami (to podobno wynika z teorii gier). W tym kontekście jasno widać, że "pozostawiony sam sobie rynek" to jest nie tylko mrzonka, ale jakiś Korwinistyczny mit :P 

Nie twierdzę przy tym, że zagranie firmy Slack jest słuszne czy nie słuszne. Twierdzę natomiast, że o ile przedstawione przeze mnie informacje o założeniach konieczncyh do optymalnego funkcjonowania wolnego rynku sa prawdziwe to konieczne są jakieś rządowe regulacje antymonopolistyczne i to nie są elementy polityki/gospodarki socjalistycznej tylko kapitalistycznej! 

Jak te regulacje powinny wygladać w szczegółach to już kolejna kwestia ale wygląda na to, że chyba dopiero się tego uczymy. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 24.07.2020 o 10:14, Warai Otoko napisał:

to podobno wynika z teorii gier

Rzeczywistość nie wynika z żadnych teorii, teoria jedynie może opisać rzeczywistość. Zamiast patrzeć schematami, powinieneś przeanalizować sprawę zdroworozsądkowo i logicznie. Monopolizacja rynku jest dobra dla danej firmy, każda firma powinna dążyć do monopolizacji rynku, bo to zapewnia maksymalizację zysków. Sprawa jest bardziej skomplikowana gdy chodzi o dobrobyt społeczny. Z jednej strony, jeżeli firma dąży do uzyskania monopolu, to znaczy, że chce by jej produkt był najlepszy i wyprzedził konkurencję. A zatem monopolizacja poprawia jakość produktu oraz jest źródłem postępu technicznego, w konsekwencji wzrostu gosp. Jeśli firma zdobywa patent, to dzięki niemu uzyska monopol na produkt i może znacznie więcej zarobić. Nie ma w tym nic złego, to pozytywna strona monopolu. Z drugiej strony taki monopol będzie wykorzystywał swoją pozycję rynkową zawyżając ceny lub obniżając podaż (co na jedno wychodzi). Chociaż firma na tym zyska, to społeczeństwo straci (można byłoby przy niższej cenie więcej wytworzyć). W omawianym przypadku rzecz dotyczy mniejszej produkcji innych podobnych programów: Microsoft może być droższy, przez to mniej dostępny, ale z powodu marki czy jakości, masowo wybierany spośród innych rozwiązań. Dzięki swojej sile monopolistycznej, wywołuje asymetrię informacji o istnieniu innych powiązanych programach (jak Teams).

Czy można za to winić Microsoft, że zwiększa pakiet swoich programów? Ta skarga to jakieś kuriozum. Jak wyżej wskazałem, kwestia monopolu nie jest zero-jedynkowa i przykładem jest właśnie patent. Żeby nie zniechęcać firmy do tworzenia innowacji, prawa autorskie powinny być zapewnione, a autor powinien mieć prawo do ochrony przed kopiowaniem produktu. Jeżeli jednak brać pod uwagę stratę społeczną jaka powstaje, gdy ludzie nie mogą kupić danego programu, maszyny, leku itd. taniej, to długość okresu patentu nie powinna być nieskończona. Np. M. Dore et al. ("The optimal length of a patent with variable output elasticity and returns to scale in R&D", 1993) oszacowali optymalną długość patentu. Wg ich modelu przy elastyczności popytu równej 1 dla R&D jest to 10-11 lat - jeżeli zyski z tego patentu są stałe w czasie. Jeżeli są rosnące, wtedy,w zależności od tempa wzrostu jest to od 13 do 34 lat. Dla spadkowych zysków - poniżej 10 lat.

Edytowane przez Antylogik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Państwo też jest monopolistą - w zakresie używania (legalnej) przemocy fizycznej (https://pl.wikipedia.org/wiki/Monopol_legalnej_przemocy_fizycznej), więc rodzi się pytanie, który "monopolista" jest gorszy - korporacyjny czy państwowy ;) Podejrzewam, że autorzy tego modelu z teorii gier nie brali pod uwagę takich zawiłości ;) A "życiowa" odpowiedź pewnie jest taka, że zależy od sytuacji. Każdy pewnie chociaż raz w swoim życiu poczuł, że Komisja Europejska za dużo się wtrąca w różne sprawy tworząc te swoje rozmaite zawiłe i niejednoznaczne dyrektywy, więc kwestia ograniczenia "monopolu" KE to także coś, co jest do rozważenia;) Świat nie jest czarno-biały;)

A tak poważniej, to ekonomia chyba nie wartościuje, czy coś jest dobre, czy złe, więc, jeżeli sobie postawimy cel, że chcemy uniknąć monopoli, bo monopole uważamy za zawsze złe, to możliwe, że dojdziemy do  takich wniosków jak z tego modelu. Natomiast gdyby patrzeć z punktu widzenia interesu konsumenta, to dla niego najprawdopodobniej jest korzystne, że MS dostarcza "za darmo" w ramach licencji na MS Office także komunikator do pracy grupowej. Nie ma zakazu wytwarzania produktów konkurencyjnych do tych dostarczanych przez MS, więc jeśli by się pojawił produkt lepiej zaspokajający potrzeby klientów niż MS Teams, to ludzie by na niego przeszli. Wielu ludzi woli używać płatnego Total Commandera od darmowego Eksploratora Windows. Tak samo przeglądarka Chrome wygrała z Internet Eksplorerem/Edge (a wcześniej wygrywał w wielu sytuacjach Firefox).

Chyba po prostu występują takie sytuacje, gdy dla konsumenta jest korzystne to, co równocześnie wiąże się ze zdobywaniem dominującej pozycji przez pewnego producenta.

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, darekp napisał:

rodzi się pytanie, który "monopolista" jest gorszy - korporacyjny czy państwowy ;) Podejrzewam, że autorzy tego modelu z teorii gier nie brali pod uwagę takich zawiłości

Oczywiście, że brali. Z tym że wplatasz do tego problemu regulacje prawne, a nimi kieruje państwo, UE czy inny nadrzędny organ. Czyli z monopolisty rynkowego przechodzisz do monopolisty na władzę. A różnica jest skrajna: rynkowy monopolista działa w ramach prawa i nie nakazuje konsumentom kupować jego produkty. Natomiast monopolista na władzę odwrotnie: sam tworzy prawo i nakazuje ludziom i firmom jemu podlegać. W przypadku tego drugiego można mówić o dobrym lub złym monopoliście w sposób obiektywny: prawo jest potrzebne dla zachowania porządku, zmniejszenia kosztów każdorazowego ustalania zasad przy nawiązywaniu umowy między stronami oraz zmniejszenia niepewności co do przyszłych relacji między stronami (np. pracownik i pracodawca mają pewne obowiązki). To oczywiście dobra władza. Zła władza powstaje wtedy gdy zamiast pomagać, przeszkadza: prawo staje się zbyt surowe i nieefektywne, przykładami są systemy komunistyczne, gdzie prywatne przedsiębiorstwa nie mają racji bytu, i socjalistyczne, gdzie prywatny przedsiębiorca jest z góry traktowany jak czyste zło, które trzeba mocno kontrolować.

Ponadto gdy mowa o władzy państwowej i monopolistach rynkowych, trudno nie skojarzyć innego rodzaju monopolisty, którego można nazwać rynkowo-państwowym: chodzi o branże użyteczności publicznej, jak energia, woda. To są tzw. monopole naturalne (bo przetwarzają naturalne zasoby, których właścicielem często jest państwo). Jest to zupełnie inny rodzaj monopolu w stosunku do rynkowego, jak Microsoft, bo one nie zarabiają za dużo (jeśli w ogóle). Są wysoko kapitałochłonne i często mało opłacalne, ale jednocześnie niezbędne dla ludzi. Przez to łatwo sobie wyobrazić, jakie ceny ustaliłaby firma prywatna, gdyby miała taki monopol. Stąd w tym przypadku niezbędne jest albo upaństwowienie albo wprowadzenie ograniczeń prawnych, m.in. dot. stawki cenowej. To drugie rozwiązanie wydaje się lepsze, bo ze względu na postęp techniczny i potencjalną konkurencyjność firm zewnętrznych koszty produkcji powinny spadać.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W przypadku oprogramowania naturalnym stanem do którego dąży rynek jest monopol.
Im więcej klientów ma firma tym większe możliwości na obniżenie ceny produktu ze jednej strony, a jednocześnie większa baza użytkowników zaznajomionych z programem ułatwia jego dalszą adaptację. Formaty plików ją wymuszają po przekroczeniu pewnego progu.
Do tego dochodzi sprzedaż wiązana w postaci pakietów czy ekosystemów.

Właściwie jedynym sensownym rozwiązaniem jest podatek antymonopolowy: im większy udział w rynku, tym większy podatek, w takich stawkach które istotnie obniżają rentowność i umożliwiają start konkurencji. A nawet zachęcają do podziału firm. Nie ma jednak pewności czy konsumenci na tym skorzystają: w sytuacji kiedy i tak brakuje programistów nie potrzeba nam chyba dodatkowego duplikowania zasobów.

Konsumenci obronili się tworząc wolne oprogramowanie w sytuacjach, gdzie komercyjni dostawcy naprawdę jechali po bandzie.

Jeszcze skrajniejszym przykładem są sieci społecznościowe. Tam zwycięzca bierze wszystko, tylko że użytkownicy nie są konsumentami. To sprzedawany towar. Jest jednak bardzo możliwe, że AI rozwiąże ten problem, tworząc wirtualną warstwę dostępu pomiędzy użytkownikiem a światem, filtrując i agregując treści według jego indywidualnych preferencji. Można też potraktować takie firmy prawem telekomunikacyjnym ograniczającym personalizację reklam (wiele patologii znikłoby na świecie po zakazie reklam, i agresywnej informacji która szuka ciebie a nie odwrotnie :)), sprowadzając je do poziomu zwykłych firm niszowych.

Przyjęliśmy, że większość dziedzin z naturalnymi monopolami może należeć do państwa, różnice w efektywności zarządzania są znikome (bo know-how jest znane a sytuacja rynkowa jest stabilna), a państwo nigdy nie zażąda tak wysokiej premii monopolistycznej jak prywatny właściciel (który zażąda maksimum). Być może taka sama przyszłość czeka sieci społecznościowe - staną się usługami publicznymi zarządzanymi przez Ministerstwo Kontroli Wspierania Wymiany Myśli.
 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Pomimo trwającej od 2 tygodni rosyjskiej agresji, internet na Ukrainie ciągle działa. Zaskakiwać może, że Kreml, bardzo chętnie korzystający z cyberataków, dotychczas go nie wyłączył. Okazuje się, że na kilka miesięcy przed rosyjską napaścią Stany Zjednoczone zorganizowały tajną misję, w ramach której amerykańscy eksperci pomogli zabezpieczyć ukraińską cyberprzestrzeń.
      Od kilku lat USA pomagają Ukrainie zabezpieczyć sieci komputerowe. Na Ukrainie pracują żołnierze US Army's Cyber Command, niezależni specjaliści opłacani przez Waszyngton oraz eksperci z firm IT. Jednak pod koniec ubiegłego roku wysiłki te zostały wyraźnie zintensyfikowane i skupione na konkretnym zagrożeniu. Media donoszą, że w październiku i listopadzie liczba amerykańskich ekspertów pracujących na Ukrainie uległa nagłemu zwiększeniu. Mieli oni przygotować ukraińskie sieci na spodziewane ataki w obliczu coraz bardziej prawdopodobnej wojny. Misja najwyraźniej się powiodła, gdyż Ukraina ciągle ma łączność ze światem.
      Okazuje się na przykład, że agresor chciał sparaliżować ukraińskie koleje. Amerykanie znaleźli w sieci komputerowej ukraińskich kolei państwowych malware, które pozwalało napastnikom na jej wyłączenie poprzez skasowanie kluczowych plików.
      Niestety, podobne oprogramowanie zostało też zainstalowane – czego Amerykanie nie zauważyli – na komputerach straży granicznej i przeprowadzony cyberatak zwiększył chaos na granicy ukraińsko-rumuńskiej.
      Amerykanie nie ograniczyli się do działań informatycznych. Wiadomo, że we współpracy z ukraińskimi firmami odpowiadającymi za ukraińską sieć szkieletową, budowali dodatkową infrastrukturę, która miała zabezpieczyć najważniejsze potencjalne cele rosyjskich cyberataków.
      W ostatnim tygodniu lutego na sieć ukraińskiej policji i innych agend rządowych przeprowadzono silny atak DDoS. Wiadomo, że w ciągu kilku godzin Amerykanie skontaktowali się z Fortinetem, kalifornijską firmą sprzedającą wirtualne maszyny przeznaczone do przeciwdziałania takim atakom, zdobyli fundusze, w zaledwie 15 minut uzyskali zgodę Departamentu Handlu na transfer technologii i zainstalowali oprogramowanie Fortinetu na komputerach policji. Atak został odparty w ciągu ośmiu godzin od rozpoczęcia.
      Ataki hakerskie są często kierowane przeciwko komercyjnemu oprogramowaniu, a znaczną jego część produkują amerykańskie i europejskie firmy, które teraz poświęcają część swoich zasobów na pomoc Ukrainie. Wiadomo na przykład, że microsoftowe Threat Intelligence Center od wielu miesięcy chroni ukraińskie sieci przed rosyjskimi atakami. Jeszcze 24 lutego, na kilka godzin przez rosyjską napaścią, inżynierowie Microsoftu wykryli nowe szkodliwe oprogramowanie i dokonali jego inżynierii wstecznej. W ciągu trzech godzin udało im się stworzyć łatę i ostrzec ukraińskie władze przed licznymi atakami na wojskowe sieci. O sytuacji powiadomiono Biały Dom, który poprosił Microsoft, by ten podzielił się szczegółami z Polską innymi krajami europejskimi w obawie, że i ich sieci mogły zostać zarażone tym samym kodem. Menedżerowie Microsoftu przyznają, że jeszcze kilka lat temu takie działania zajęłyby całe tygodnie lub miesiące. Teraz wystarczają godziny.
      Amerykańska prasa donosi, że niektórzy z wysokich rangą menedżerów Microsoftu uzyskali szybko certyfikaty bezpieczeństwa i biorą teraz udział w spotkaniach National Security Agency (NSA) i Cyber Command.
      Eksperci obserwujący rozwój wydarzeń w ukraińskiej cyberprzestrzeni, są zdumieni tym, co widzą. Rosja zdobyła sobie reputację kraju, który potrafi skutecznie przeprowadzić silne niszczące cyberataki. Tymczasem od czasu napaści na Ukrainę nie obserwuje się wzmożenia tego typu aktywności. Nie wiadomo, co się stało. Być może Rosjanie próbowali, ale dzięki wzmocnieniu ukraińskiej infrastruktury napotkali na trudności. Na pewno próbowali przejąć facebookowe konta wysokich rangą ukraińskich oficerów i znanych osobistości, by rozpowszechniać fałszywe informacje. Na kontach tych pojawiły się filmy z rzekomo poddającymi się ukraińskimi oddziałami. Facebook zablokował zaatakowane konta i poinformował ich właścicieli.
      Nie można wykluczyć, że Kreml zlekceważył siłę ukraińskiej cyberprzestrzeni podobnie, jak zlekceważył ukraińską armię.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Jeszcze w bieżącym roku ma zadebiutować kolejna edycja systemu operacyjnego Microsoftu – Windows 11. Koncern z Redmond opublikował minimalną specyfikację sprzętową, jaka będzie koniczna, by zaktualizować komputer i okazało się, że wielu użytkowników nie będzie mogło tego zrobić. Windows 11 nie będzie bowiem wspierał wszystkich procesorów. Nie zainstalujemy go na procesorze starszym nią 4–5 lat.
      Microsoft opublikował dokładne listy układów Intela, AMD i Qualcommu, na których można będzie zainstalować najnowszy system operacyjny. Co ciekawe, na liście tej nie ma układu Intel Core i7-7820HQ, który używany jest w microsoftowym notebooku Surface Studio 2. Jak można się domyślać, użytkownicy tego sprzętu nie są zbytnio zadowoleni z faktu, że nie otrzymają najnowszego Windowsa.
      Jednak nie tylko oni. MiIiony osób korzystających obecnie z Windows 10 nie będzie mogło zaktualizować systemu do jego najnowszej edycji. Za pomocą aplikacji PC Health Check możemy sprawdzić, czy nasz komputer spełnia minimalne wymagania, by zainstalować na nim Windows 11.
      Nie do końca jest jasne, na ile ściśle zasady te będą jednak przestrzegane. Już wcześniej menedżerowie Microsoftu sugerowali, że – po wyświetleniu ostrzeżenia – Windows 11 zainstaluje się na części teoretycznie niewspieranych procesorów. Na stronie polskiego Microsoftu czytamy, że na urządzeniach, które nie spełniają minimalnych wymagań zainstalowanie Windows 11 może okazać się niemożliwe.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Ostatnie działania gigantów IT, takich jak Google, oraz koncernów farmaceutycznych sugerują, że pierwszym naprawdę przydatnym zastosowaniem komputerów kwantowych mogą stać się obliczenia związane z pracami nad nowymi lekami. Komputery kwantowe będą – przynajmniej teoretycznie – dysponowały mocą nieosiągalną dla komputerów klasycznych. Wynika to wprost z zasady ich działania.
      Najmniejszą jednostką informacji jest bit. Reprezentowany jest on przez „0” lub „1”. Jeśli wyobrazimy sobie zestaw trzech bitów, z których w każdym możemy zapisać wartość „0” lub „1” to możemy w ten sposób stworzyć 8 różnych kombinacji zer i jedynek (23). Jednak w komputerze klasycznym w danym momencie możemy zapisać tylko jedną z tych kombinacji i tylko na jednej wykonamy obliczenia.
      Jednak w komputerze kwantowym mamy nie bity, a bity kwantowe, kubity. A z praw mechaniki kwantowej wiemy, że kubit nie ma jednej ustalonej wartości. Może więc przyjmować jednocześnie obie wartości: „0” i „1”. To tzw. superpozycja. A to oznacza, że w trzech kubitach możemy w danym momencie zapisać wszystkie możliwe kombinacje zer i jedynek i wykonać na nich obliczenia. Z tego zaś wynika, że trzybitowy komputer kwantowy jest – przynajmniej w teorii – ośmiokrotnie szybszy niż trzybitowy komputer klasyczny. Jako, że obecnie w komputerach wykorzystujemy procesory 64-bitowe, łatwo obliczyć, że 64-bitowy komputer kwantowy byłby... 18 trylionów (264) razy szybszy od komputera klasycznego.
      Pozostaje tylko pytanie, po co komu tak olbrzymie moce obliczeniowe? Okazuje się, że bardzo przydałyby się one firmom farmaceutycznym. I firmy te najwyraźniej dobrze o tym wiedzą. Świadczą o tym ich ostatnie działania.
      W styczniu największa prywatna firma farmaceutyczna Boehringer Ingelheim ogłosiła, że rozpoczęła współpracę z Google'em nad wykorzystaniem komputerów kwantowych w pracach badawczo-rozwojowych. W tym samym miesiącu firma Roche, największy koncern farmaceutyczny na świecie, poinformował, że od pewnego czasu współpracuje już z Cambridge Quantum Computing nad opracowaniem kwantowych algorytmów służących wstępnym badaniom nad lekami.
      Obecnie do tego typu badań wykorzystuje się konwencjonalne wysoko wydajne systemy komputerowe (HPC), takie jak superkomputery. Górną granicą możliwości współczesnych HPC  są precyzyjne obliczenia dotyczące molekuł o złożoności podobne do złożoności molekuły kofeiny, mówi Chad Edwards, dyrektor w Cambridge Quantum Computing. Molekuła kofeiny składa się z 24 atomów. W farmacji mamy do czynienia ze znacznie większymi molekułami, proteinami składającymi się z tysięcy atomów. Jeśli chcemy zrozumieć, jak funkcjonują systemy działające według zasad mechaniki kwantowej, a tak właśnie działa chemia, to potrzebujemy maszyn, które w pracy wykorzystują mechanikę kwantową, dodaje Edwards.
      Cambridge Quantum Computing nie zajmuje się tworzeniem komputerów kwantowych. Pracuje nad kwantowymi algorytmami. Jesteśmy łącznikiem pomiędzy takimi korporacjami jak Roche, które chcą wykorzystywać komputery kwantowe, ale nie wiedzą, jak dopasować je do swoich potrzeb, oraz firmami jak IBM, Honeywell, Microsoft czy Google, które nie do końca wiedzą, jak zaimplementować komputery kwantowe do potrzeb różnych firm. Współpracujemy z 5 z 10 największych firm farmaceutycznych, wyjaśnia Edwards.
      Bardzo ważnym obszarem prac Cambridge Quantum Computing jest chemia kwantowa. Specjaliści pomagają rozwiązać takie problemy jak znalezieniem molekuł, które najmocniej będą wiązały się z danymi białkami, określenie struktury krystalicznej różnych molekuł, obliczanie stanów, jakie mogą przyjmować różne molekuły w zależności od energii, jaką mają do dyspozycji, sposobu ewolucji molekuł, ich reakcji na światło czy też metod metabolizowania różnych związków przez organizmy żywe.
      Na razie dysponujemy jednak bardzo prymitywnymi komputerami kwantowymi. Są one w stanie przeprowadzać obliczenia dla molekuł składających się z 5–10 atomów, tymczasem minimum, czego potrzebują firmy farmaceutyczne to praca z molekułami, w skład których wchodzi 30–40 atomów. Dlatego też obecnie przeprowadzane są obliczenia dla fragmentów molekuł, a następnie stosuje się specjalne metody obliczeniowe, by stwierdzić, jak te fragmenty będą zachowywały się razem.
      Edwards mówi, że w przyszłości komputery kwantowe będą szybsze od konwencjonalnych, jednak tym, co jest najważniejsze, jest dokładność. Maszyny kwantowe będą dokonywały znacznie bardziej dokładnych obliczeń.
      O tym, jak wielkie nadzieje pokładane są w komputerach kwantowych może świadczyć fakt, że główne koncerny farmaceutyczne powołały do życia konsorcjum o nazwie QuPharm, którego zadaniem jest przyspieszenie rozwoju informatyki kwantowej na potrzeby produkcji leków. QuPharm współpracuje z Quantum Economic Development Consortium (QED-C), powołanym po to, by pomóc w rozwoju komercyjnych aplikacji z dziedziny informatyki kwantowej na potrzeby nauk ścisłych i inżynierii. Współpracuje też z Pistoia Alliance, którego celem jest przyspieszenie innowacyjności w naukach biologicznych.
      Widzimy zainteresowanie długoterminowymi badaniami nad informatyką kwantową. Firmy te przeznaczają znaczące środki rozwój obliczeń kwantowych, zwykle zapewniają finansowanie w dwu-, trzyletniej perspektywie. To znacznie bardziej zaawansowane działania niż dotychczasowe planowanie i studia koncepcyjne. Wtedy sprawdzali, czy informatyka kwantowa może się do czegoś przydać, teraz rozpoczęli długofalowe inwestycje. To jest właśnie to, czego ta technologia potrzebuje, dodaje Edwards.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Bill Gates poinformował, że ma zamiar stopniowo wycofywać się z pracy w Microsofcie. Chce więcej czasu poświęcić pracy w fundacji, którą prowadzą razem z żoną.
      Już w tej chwili zrezygnował ze stanowiska głównego architekta oprogramowania, które przejmie Ray Ozzie. Jeszcze przez dwa lata będzie pracował jako zatrudniony na pełnym etacie pracownik i przewodniczący rady nadzorczej swojej firmy. W ciągu tych dwóch lat stopniowo będzie przekazywał swoje obowiązki innym osobom.
      Na stanowisku głównego architekta oprogramowania już teraz zastąpi go Ozzie, twórca IBM-owskiego Lotus Notes i dotychczasowy prezes ds. technicznych. Za dotychczasowe obowiązki Gatesa obejmujące sprawy badawcze i rozwojowe będzie natomiast odpowiedzialny Craig Mundie, prezes ds. zaawansowanych strategii i polityki. Przez rok obaj panowie będą ściśle współpracowali i dzielili swe stanowiska z Gatesem, a po dwunastu miesiącach ich bezpośrednim przełożonym stanie się prezes Microsoftu, Steve Ballmer.
      Bill Gates wyjaśnił, że dotychczas na pełnym etacie pracował w Microsofcie, a część swojego czasu poświęcał Fundacji Billa i Melindy Gatesów. Obecnie chciałby odwrócić swoje priorytety i bardziej zaangażować się w działalność charytatywną.
      Fundacja Billa i Melindy Gatesów to największa tego typu organizacja w historii. Zarządza ona majątkiem o wartości 29 miliardów dolarów, a państwo Gates wydają na działalność charytatywną wielokrotnie więcej niż niejedno duże państwo. Fundacja finansuje setkami milionów dolarów badania nad szczepionkami przeciwdziałającymi chorobom, które trapią kraje Trzeciego Świata, takimi jak malaria czy gruźlica. Pieniądze przekazywane są również na edukację w krajach Trzeciego Świata i pomagają na bieżąco ofiarom kataklizmów. Gatesowie wspomagają również muzea, w których można zobaczyć historyczne już modele komputerów. Jedną z najbardziej znanych inicjatyw Fundacji jest warty 500 milionów dolarów program Grand Challenges, w ramach którego Gatesowie płacą najlepszym naukowcom na świecie m.in. za prace nad szczepionką, do przechowywania której nie jest potrzebna lodówka, a do użycia nie trzeba dysponować igłą.
      W uznaniu ich zasług magazyn "Time" przyznał w ubiegłym roku państwu Gatesom, oraz wokaliście U2 Bono, tytuł ludzi roku.
      Informując o swoich najnowszych decyzjach Bill Gates powiedział, że jego rola w firmie zmieniła się znacząco od czasu, gdy ją zakładał. Na początku musiał sprawdzać każdą linię kodu tworzoną przez programistów oraz osobiście rozpatrywał każde podanie o przyjęcie do pracy. Obecnie, jak mówi, wciąż lubi mieć wpływ na najważniejsze decyzje, ale chciałby złożyć je w ręce innych.
      Świat wykazuje tendencję do nieproporcjonalnie dużego skupiania się na mojej osobie – powiedział Gates.
      Nathan Myhrvold, szef firmy Intellectual Ventures i były szef naukowy Microsoftu uważa, że pomimo rezygnacji ze stanowisk Gates nadal będzie miał olbrzymi wpływ na swój koncern. Zatrudnienie na część etatu Billa Gatesa to tak jak praca na cały etat dla kogokolwiek innego w przemyśle komputerowym. Pamiętam, gdy się ożenił. Ludzie mówili, że to spowoduje, iż Gates będzie mniej się zajmował firmą. Tak się nie stało – powiedział Myhrvold.
      Poprzednia tak wielka zmiana w kierownictwie Microsoftu miała miejsce w 2000 roku, gdy Gates niespodziewanie oświadczył, że rezygnuje z funkcji prezesa firmy na rzecz Steve'a Ballmera.
       

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Podczas niedawnej konferencji Ignite 2020 Microsoft ogłosił rozpoczęciu Project HSD (Holographic Storage Device). Biorą nim udział specjaliści z laboratorium sztucznej inteligencji w Cambridge oraz inżynierowie z chmury Azure. Celem projektu jest stworzenie holograficznego systemu przechowywania informacji na potrzeby chmur.
      Zapotrzebowanie na długoterminowe przechowywanie danych w chmurach sięgnęło niespotykanego poziomu i rośnie w zetabajtach. Istniejące obecnie technologie nie pozwalają na ekonomiczne długotrwałe przechowywanie danych. Operowanie danymi w skali chmur obliczeniowych wymaga przemyślenia samych podstaw budowy wielkoskalowych systemów przechowywania informacji oraz technologii, z których są one tworzone, stwierdzili przedstawiciele Microsoftu.
      Firmowi eksperci zauważają, że obecnie używane technologie nie rozwijają się w dostatecznie szybkim tempie, by zaspokoić zapotrzebowanie. Ponadto mają problemy z wiarygodnością i stabilnością spowodowane albo obecnością mechanicznych podzespołów albo degradującymi się z czasem komórkami pamięci.
      Dlatego też w 2017 roku Microsoft rozpoczął Project Silica, w ramach którego pracuje nad holograficznym zapisem danych w szkle. Holograficzny zapis danych nie jest ograniczony do dwuwymiarowej powierzchni, pozwala wykorzystać całość nośnika.
      Hologram zajmuje niewielką część kryształu. W jednym krysztale można zaś zapisać wiele hologramów, wyjaśniają przedstawiciele koncernu z Redmond. Najnowsze osiągnięcia z dziedziny sztucznej inteligencji czy optyki pozwalają na znaczne udoskonalenie tego, co robiono dotychczas w ramach Project Silica, na którym bazuje Project HDS. Na razie, jak informuje dział Microsoft Research, udało się niemal dwukrotnie zwiększyć gęstość zapisu w hologramach. W najbliższych miesiącach powinniśmy zaś zobaczyć poprawioną kompresję i szybsze czasy dostępu.
      Przed niemal rokiem informowaliśmy, że w ramach Project Silica Microsoft stworzył prototypowy system do przechowywania informacji w szkle. We współpracy z firmą Warner Bros. koncern zapisał oryginalny firm Superman z 1978 roku na kawałku szkła o wymiarach 75x75x2 milimetry. Pisaliśmy wówczas, że firma wykorzystuje femtosekundowe lasery pracujące w podczerwieni do zapisu danych na „wokselach”, trójwymiarowych pikselach. Każdy z wokseli ma kształt odwróconej kropli, a zapis dokonywany jest poprzez nadawanie mi różnych wielkości i różnej orientacji. Na szkle o grubości 2 milimetrów można zapisać ponad 100 warstw wokseli. Odczyt odbywa się za pomocą kontrolowanego przez komputer mikroskopu, który wykorzystuje różne długości światła laserowego. Światło zostaje odbite od wokseli i jest przechwytywane przez kamerę. W zależności od orientacji wokseli, ich wielkości oraz warstwy do której należą, odczytywane są dane.
      Przy Project HSD pracują fizycy, optycy, specjaliści od maszynowego uczenia się i systemów przechowywania danych. Jest on prowadzony przez grupę Optics for the Cloud w Microsoft Resarch Cambridge.
       


      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...