Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Apple przechodzi na architekturę ARM

Recommended Posts

Potwierdziły się plotki mówiące o zamiarach porzucenia przez Apple'a architektury x86 i całkowitym przejściu na architekturę ARM. Wczoraj, podczas WWDC 2020, firma oficjalnie ogłosiła rozpoczęcie dwuletniego okresu przechodzenia na ARM. Koncern z Cupertino zaoferuje odpowiednie SDK producentom oprogramowania, a pierwszy komputer z procesorem ARM ma trafić do sprzedaży jeszcze przed końcem bieżącego roku.

Dyrektor wykonawczy Apple'a, Tim Cook, poinformował, że firma wciąż będzie oferowała nowe modele komputerów z procesorami Intela, jednak w ciągu dwóch lat każdy nowy model będzie też sprzedawany w wersji z procesorem ARM. Ponadto wszystkie przyszłe systemy operacyjne, od edycji MacOS 11 Big Sur będą wspierały architekturę ARM i x86.

Koncern poinformował też, że już całe jego oprogramowanie, włącznie z takimi programami jak Final Cut czy Logic Pro, ma swoje wersje dla ARM. Firma współpracuje też z Microsoftem i Adobe nad przygotowaniem odpowiednich wersji programów tych firm na komputery Mac z układami ARM. Trwają też prace nad emulatorem Rosetta 2, który pozwoli na uruchamianie programów dla x86 na komputerach z ARM. Pierwsze wersje demonstracyjne takiego oprogramowania jak Maya czy Shadow of the Tomb Raider, wyglądają bardzo obiecująco.

Apple będzie samodzielnie przygotowywało swoje procesory ARM. Koncern informuje, że powodem podjęcia takiej decyzji była chęć zwiększenia wydajności w przeliczeniu na wat energii. Warto tutaj zauważyć, że samodzielny rozwój i produkcja procesorów pozwolą Apple'owi jeszcze bardziej zmniejszyć zależność od zewnętrznych dostawców i w jeszcze większym stopniu kontrolować sprzedawane przez siebie sprzęt i oprogramowanie.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      AMD konsekwentnie zdobywa coraz silniejszą pozycję na rynku. Firma analityczna Mercury Research, z której usług korzystają m.in. AMD i Intel, poinformowała, że IV kwartał 2019 roku był już 9. kwartałem z kolei, w którym AMD zwiększało swoje udziały w rynku procesorów.
      Analityków zaskoczyły niewielkie postępy na rynku desktopów oraz centrów bazodanowych. W ciągu trzech ostatnich miesięcy ubiegłego roku AMD zyskało tam, odpowiednio, 0,2 i 0,3 punktu procentowego. Największe zaś postępy firma zanotowała na rynku urządzeń przenośnych, gdzie pomiędzy październikiem a grudniem 2019 roku wzrosły o 1,5 punktu procentowego.
      Obecnie AMD posiada 4,5% rynku serwerów (+ 1,4 pp rok do roku), 18,3% rynku desktopów (+2,4 pp rdr), 16,2% rynku urządzeń mobilnych (+ 4,0 pp rdr). Całkowity udział AMD w rynku układów x86 wynosi obecnie 15,5%. Ostatnio tak dobrym wynikiem firma mogła pochwalić się przed niemal 7 laty.
      Sprzedaż desktopowych CPU wzrosła dzięki dużemu popytowi na highendowe procesory dla graczy oraz dlatego, że Intel zwiększył dostawy tanich procesorów. AMD zanotowało bardzo silny wzrost sprzedaży układów z serii Ryzen 3000, a Intel duży wzrost w segmencie i9. Większość wzrostu obu firm pochodziło ze sprzedaży procesorów o największej liczbie rdzeni, mówi Dean McCarron z Mercury Research.
      Warto też zauważyć, że AMD zdominował Black Friday i Cyber Monday na Amazonie, gdzie jego procesory często zajmowały pierwszych 10 pozycji wśród najchętniej kupowanych układów. To jednocześnie pokazuje, że rynek klienta indywidualnego jest znacznie mniejszy niż rynek OEM, na którym tradycyjnie dominuje Intel. Koncern jest szczególnie silny w segmencie przedsiębiorstw i administracji państwowej. Klienci ci pozostają wierni platformie Intela, gdyż unikają w ten sposób kosztownych i długotrwałych procesów związanych z przejściem na inna platformę sprzętową.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Trenowanie systemów sztucznej inteligencji trwa obecnie wiele tygodni. Firma Cerebras Systems twierdzi, że potrafi skrócić ten czas do kilku godzin. Pomysł polega na tym, by móc testować więcej pomysłów, niż obecnie. Jeśli moglibyśmy wytrenować sieć neuronową w ciągu 2-3 godzin, to rocznie możemy przetestować tysiące rozwiązań, mówi Andrew Feldman, dyrektor i współzałożyciel Cerebras.
      Jeśli chcemy wytrenować sieć sztucznej inteligencji, która np. ma zarządzać autonomicznym samochodem, potrzebujemy wielu tygodni i olbrzymiej mocy obliczeniowej. Sieć musi przeanalizować olbrzymią liczbę zdjęć czy materiałów wideo, by nauczyć się rozpoznawania istotnych obiektów na drodze.
      Klienci Cerebras skarżą się, że obecnie trenowanie dużej sieci neuronowej może trwać nawet 6 tygodni. W tym tempie firma może wytrenować około 6 sieci rocznie. To zdecydowanie zbyt mało dla przedsiębiorstw, które chcą sprawdzić wiele nowych pomysłów za pomocą SI.
      Rozwiązaniem problemu ma być komputer CS-1, a właściwie jego niezwykły procesor. Maszyny CS-1 mają wysokość 64 centymetrów, a każda z nich potrzebuje do pracy 20 kW. Jednak 3/4 obudowy każdego z komputerów zajmuje układ chłodzenia, a tym, co najbardziej rzuca się w oczy jest olbrzymi układ scalony. Zajmuje on powierzchnię 46 255 milimetrów kwadratowych, czyli około 50-krotnie więcej niż tradycyjny procesor. Zawiera 1,2 biliona tranzystorów, 400 000 rdzeni obliczeniowych i 18 gigabajtów pamięci SRAM.
      Procesor o nazwie Wafer Scale Engine (WSE) wypada znacznie lepiej niż podobne systemy. Jak zapewniają przedstawiciele Cerebras, ich maszyna, w porównaniu z klastrem TPU2 wykorzystywanym przez Google'a do trenowania SI, zużywa 5-krotnie mniej energii i zajmuje 30-krotnie mniej miejsca, a jest przy tym 3-krotnie bardziej wydajna. Takie zestawienie brzmi imponująco, a na ile rzeczywiście WSE jest lepszy od dotychczasowych rozwiązań powinno ostatecznie okazać się w bieżącym roku. Jak zauważa analityk Mike Demler, sieci neuronowe stają się coraz bardziej złożone, więc możliwość szybkiego ich trenowania jest niezwykle ważna.
      Trzeba jednak przyznać, że w twierdzeniach Cerebras musi być ziarno prawdy. Wśród klientów firmy jest m.in. Argonne National Laboratory, które ma już maszyny CS-1 u siebie. Zapewne już wkrótce dowiemy się, czy rzeczywiście zapewniają one tak wielką wydajność i pozwalają tak szybko trenować sieci neuronowe.
      Twórcami Cerebras są specjaliści, którzy pracowali w firmie Sea Micro, przejętej przez AMD. Pomysł stworzenia komputera wyspecjalizowanego w sztucznej inteligencji zaczął kiełkować w ich głowach w 2015 roku. Stwierdzili, że odpowiedni procesor musi być w stanie szybko przesyłać duże ilości danych, układy pamięci muszą znajdować się blisko rdzenia, a same rdzenie nie powinny zajmować się danymi, którymi już zajmują się inne rdzenie. To zś oznaczało, że tego typu układ musi składać się z olbrzymiej liczby niewielkich rdzeni wyspecjalizowanych w obliczeniach z zakresu sieci neuronowych, połączenia między rdzeniami muszą być szybkie i zużywać niewiele energii, a wszystkie dane muszą być dostępne na procesorze, a nie w osobnych układach pamięci.
      Twórcy Cerebras uznali, że tym, czego potrzebują, jest chip niemalże wielkości całego plastra krzemowego. Udało im się taki układ skonstruować, chociaż nie było to łatwe zadanie i wciąż muszą poradzić sobie z licznymi problemami. Jednym z nich było poradzenie sobie z filozofią tworzenia współczesnych plastrów krzemowych. Obecnie z pojedynczego plastra tworzy się wiele procesorów. Po ich przygotowaniu, plaster, zawierający wiele identycznych układów, jest cięty. W procesie przygotowywania plastra do produkcji tworzy się na nim specjalne linie, wzdłuż których przebiegają cięcia. Tymczasem Cerebras potrzebowało takiego plastra w całości, z połączeniami pomiędzy poszczególnymi rdzeniami. To zaś wymagało nawiązania współpracy z TSMC i opracowania metody przeprowadzenia połączeń przez linie.
      Wysiłek się opłacił. Poszczególne rdzenie komunikują się między sobą z prędkością 1000 Pb/s, a komunikacja pomiędzy pamięcią a rdzeniami przebiega w tempie do 9 PB/s. To nie jest trochę więcej. To o cztery rzędy wielkości więcej, gdyż wszystko odbywa się w ramach tego samego plastra, cieszy się Feldman.
      Jednak przeprowadzenie połączeń przez linie nie był jedynym problemem. Trzeba było zmodyfikować cały proces projektowania i produkcji układów. Nawet oprogramowanie do projektowania procesorów jest przygotowane pod niewielkie układy. Każda zasada, każde narzędzie i każde urządzenie jest obecnie dostosowana do produkcji układów scalonych o zwyczajowych rozmiarach. My zaś potrzebujemy czegoś znacznie większego, dlatego też musieliśmy na nowo opracować każdy element, dodaje Feldman.
      Jeszcze innym problemem okazało się zasilanie takiego układu. Każdy z 1,2 biliona tranzystorów potrzebuje 0,8 wolta. To standardowe napięcie, ale tranzystorów jest tak dużo, że do układu należy doprowadzić prąd o natężeniu 20 000 amperów.
      Uzyskanie w całym plastrze 20 000 amperów bez znacznego spadku napięcia było kolejnym wyzwaniem inżynieryjnym, mówią przedstawiciele Cerebras. Doprowadzenie prądu do krawędzi WSE nie wchodziło w rachubę, gdyż opory spowodowałyby spadek napięcia do zera zanim prąd osiągnąłby środek układu. Rozwiązaniem okazało się prostopadłe podłączenie od góry. Inżynierowie Cerebras zaprojektowali specjalny zestaw składający się z setek układów wyspecjalizowanych w kontrolowaniu przepływu prądu. Za pomocą miliona miedzianych połączeń dostarcza on zasilanie do WSE.
      Cerebras nie podaje żadnych danych odnośnie testów wydajności swojego rozwiązania w porównaniu z innymi systemami. Zamiast tego firma zachęca swoich klientów, by po prostu sprawdzili, czy  CS-1 i WSE sprawują się lepiej w zadaniach, których ci klienci potrzebują. Nie ma w tym jednak nic dziwnego. Każdy korzysta z własnych modeli dostosowanych do własnych potrzeb. To jedyne co się liczy dla klienta, mówi analityk Karl Freund.
      Jednym z takich klientów jest właśnie Argonne National Laboratory. Ma ono dość specyficzne potrzeby. Wykorzystuje sieci neuronowe do rozpoznawania różnych rodzajów fal grawitacyjnych w czasie rzeczywistym. Pracujący tam specjaliści wolą więc samodzielnie przekonać się, czy nowe urządzenie lepiej sprawdzi się w tych zastosowaniach niż dotychczas stosowane superkomputery.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Apple sprzeciwia się pomysłowi, by w Unii Europejskiej wprowadzić jeden typ ładowarki dla wszystkich urządzeń. Rozwiązanie takie zmniejszyłoby ilość elektronicznych odpadów i ułatwiło życie konsumentom, jednak nie wszystkim się ono podoba.
      W przeszłości firmy takie jak Apple, Samsung, Nokia, LG czy Huawei podpisały wspólną deklarację, w której zobowiązały się do rozpoczęcia prac nad ujednoliceniem standardu ładowarek. Jednak porozumienie nie dotyczy wszystkich producentów elektroniki i nie obejmuje wszystkich urządzeń. Dlatego też europejscy prawodawcy chcą, by jeden standard ładowarek stał się obowiązkiem na terenie Unii Europejskiej.
      Nowe przepisy, jeśli zostaną przyjęte, najbardziej uderzą właśnie w Apple'a. Firma ta bowiem od czasu rozpoczęcia sprzedaży iPhone'a woli stosować własne ładowarki, a nie standardowe rozwiązania. Ostatnio takim standardem stał się USB Type-C. Nawet Apple stosuje to rozwiązanie w swoich laptopach i tabletach. Ale odmawia stosowania go w smartfonach.
      Uważamy, że rozwiązania wymuszające unifikację ładowarek wbudowanych we wszystkie smartfony będą blokowały innowacyjność, zaszkodza konsumentom w Europie i całej gospodarce, oświadczyli przedstawiciele Apple'a. Zauważyli przy tym, że standard USB-C szeroko się rozpowszechnił, zatem wymuszanie unifikacji nie jest potrzebne. Koncern zamówił nawet specjalne badania, z których wynika, że wymuszenie na Apple'u stosowania takiej ładowarki jak inni kosztowałoby co najmniej 1,5 miliarda euro, podczas gdy korzyści środowiskowe z takiego działania oceniono na 13 milionów euro.
      Na przełomie stycznia i lutego mają się z kolei ukazać badania zamówione przez Komisję Europejską. Ich celem jest oszacowanie korzyści i kosztów związanych z wprowadzeniem zunifikowanego standardu ładowarek na europejskim rynku.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Apple poszło na rękę FBI i zrezygnowało z planów wprowadzenia pełnego szyfrowania kopii bezpieczeństwa, jakie użytkownicy iPhone'ów przechowują w firmowej usłudze iCoud. Federalne Biuro Śledcze skarżyło się, że taki ruch znacząco utrudni prowadzenie mu postępowań kryminalnych. Informację o takiej decyzji, podjętej przez Apple'a już dwa lata temu, potwierdziło mediom sześć różnych osób.
      To pokazuje, że koncern współpracuje z organami ścigania w znacznie szerszym stopniu, niżby to wynikało z publicznie prowadzonych sporów przy okazji głośnych spraw, jak ataki terrorystyczne w San Bernardino czy też grudniowe wydarzenia, kiedy to pilot wojskowy z Arabii Sadyjskiej, przebywający w USA na szkoleniu, zabił trzy osoby w bazie marynarki wojennej na Florydzie.
      Spory takie przybierają czasem ostre formy. Ostatnio dotarły one na same szczyty władzy. Najpierw Prokurator Generalny USA wezwał Apple'a do odblokowania obu iPhone'ów używanych przez wspomnianego pilota, następnie prezydent Trump skrytykował firmę za odmowę odblokowywania telefonów, używanych przez morderców, dilerów narkotyków i sprawców innych poważnych przestępstw kryminalnych. Nacisk wywierają też republikańscy i demokratyczni senatorowie, grożąc, że uchwalą przepisy zakazujące stosowania tak silnych algorytmów szyfrowania, że organy ścigania nie mogą sobie z nimi poradzić, przez co nie są na przykład zdobyć dowodów w sprawach dotyczących molestowania dzieci.
      Apple przekazało śledczym kopie zapasowe telefonów pilota-mordercy przechowywane w iCloud.
      Jednak, jak się dowiadujemy, firma udzieliła FBI dodatkowej pomocy, niezwiązanej z żadną konkretną sprawą. Otóż dwa lata temu koncern poinformował FBI,że ma zamiar zastosować równie silne mechanizmy szyfrowania w stosunku do kopii zapasowych przechowywanych w iCloud. Do tak zaszyfrowanych danych nawet Apple nie miałoby dostępu, więc nie mogłoby ich ujawnić nawet na żądanie sądu. Przedstawiciele FBI stwierdzili, że takie szyfrowanie pozbawi ich skutecznego narzędzia śledczego. W związku z tym Apple zrezygnowało ze swoich planów.
      Jak dowiedzieli się dziennikarze, firma nie chciała ryzykować, że stanie się celem ataków ze strony polityków i urzędników twierdzących, że chroni przestępców. Chciała też uniknąć ewentualnych pozwów sądowych, czy pojawienia się przepisów skierowanych przeciwko silnemu szyfrowaniu. Stwierdzili, że nie będą już więcej drażnili niedźwiedzia, powiedział dziennikarzom były pracownik Apple'a. Z kolei byli pracownicy FBI twierdzą, że biuro po prostu przekonało Apple'a swoimi argumentami. Pomijając publicznie prowadzony spór w związku ze sprawą z San Bernardino, Apple zasadniczo zgadza się ze stanowiskiem rządu, powiedzieli. Wedle jeszcze innej teorii, Apple porzuciło plany, gdyż obawiało się, że jeszcze więcej użytkowników niż zwykle będzie traciło dostęp do swoich danych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Amerykańscy giganci IT zwierają szyki przed marcowym posiedzeniem Sądu Najwyższego USA, który rozstrzygnie spór dotyczący kwestii patentowania oprogramowania i zasady fair use. Wyrok może mieć olbrzymie znaczenie dla światowego przemysłu nowoczesnych technologii.
      Sprawa sięga roku 2010 i dotyczy sporu pomiędzy Google'em a Oracle'em. W ciągu zaledwie tygodnia po tym, jak Google przesłało swoje stanowisko w tej sprawie, do Sądu Najwyższego zgłosiło się 21 podmiotów, chcących wystąpić jako amicus curiae. Termin ten określa osobę lub inny podmiot, który nie jest stroną w postępowaniu sądowym, ale dobrowolnie z własnej inicjatywy oferuje sądowi własną opinię prawną. Sąd nie ma ani obowiązku dopuszczenia takiej opinii, ani – jeśli nawet ją dopuści – jej uwzględnienia.
      We wspomnianej sprawie większość amici curiae wspiera stanowisko Google'a. Wyszukiwarkowy gigant może liczyć m.in. na wsparcie IBM-a, Microsoftu, Mozilli, organizacji biznesowych czy środowisk naukowych.
      Już w pierwszym zdaniu opinii wysłanej przez IBM-a czytamy, że interfejsy komputerowe nie podlegają prawom autorskim. Z kolei Microsoft argumentuje, że Sąd Najwyższy powinien przywrócić obalony w apelacji wyrok sądu niższej instancji, który uznał, że Google miał prawo na zasadach fair use, wykorzystać chronione prawem autorskim API Javy. W innych opiniach stwierdzono, że jeśli sąd uzna stanowisko Oracle'a, będzie miało to niekorzystny wpływ nie tylko na przemysł IT, ale również na odniesienia w dziełach artystycznych do innych dzieł czy nawet na kwestie naprawy samochodów.
      Spór toczy się o wykorzystanie API języka JAVA. Język Java został stworzony w latach 90. ubiegłego wieku przez Sun Microsystems. Firma udostępniła go bezpłatnie developerom, jednak pobierała opłaty tam, gdzie Java była komercyjnie wykorzystywana. W 2010 roku Oracle kupił Suna, a Google stało się pierwszą firmą, którą koncern Ellisona wziął na celownik, domagają się respektowania swoich praw.
      W 2012 roku po odrzuceniu zarzutów dotyczących kwestii patentowych i po tym, jak ława przysięgłych nie mogła zdecydować, czy użycie API Javy przez Google'a podlega zasadzie fair use, sąd okręgowy orzekł, że API Javy nie są chronione prawem autorskim. Oracle się odwołał i w 2014 roku federalny sąd apelacyjny stwierdził, że interfejsy mogą być chronione prawem autorskim, jednak nie rozstrzygnął, czy wykorzystanie przez Google'a API Javy było zgodne z zasadami fair use.
      W tej sytuacji Google odwołał się do Sądu Najwyższego, jednak ten odmówił zajęcia się sprawą. Proces wrócił do sądu okręgowego, a ten w 2016 roku stwierdził, że Google postąpiło zgodnie z zasadami fair-use. Ten wyrok nie spodobał się Oracle'owi, który złożył apelację do sądu federalnego. Ten zaś stwierdził, że wykorzystanie przez Google'a API nie było zgodne z zasadmi fair-use. Google poprosił o powtórzenie procesu w pełnym składzie sądu, ale wniosek odrzucono. Wobec tego w 2019 roku Google ponownie zwrócił się do Sądu Najwyższego o rozpatrzenie sprawy, a ten wyraził zgodę.
      Prawnicy Google'a argumentują, że zwycięstwo Oracle'a będzie zagrożeniem dla całego przemysłu i po raz pierwszy da właścicielowi praw autorskim monopol, który negatywnie wpłynie na tworzenie i implementację oprogramowania. Prawnicy Oracle'a odpierają zarzuty stwierdzając, że od czasu, gdy po raz pierwszy federalny sąd apelacyjny stanął po stronie Oracle'a i uznał, że Google naruszył prawa tej firmy tempo innowacyjności tylko wzrosło, zwiększając liczbę miejsc pracy i dając kolejne możliwości rozwoju. Oracle twierdzi, że Google próbuje po prostu uniknąć konieczności zapłacenia za naruszenie własności intelektualnej.
      Już dwa lata temu wyrok sądu federalnego został skrytykowany przez profesora prawa Jonathana Banda na łamach Harvard Journal of Law and Technology. W sporze tym pojawił się nawet argument odwołujący się do... sporu o prawa autorskie z XIX wieku.
      Otóż w 1874 roku William Perris pozwał Ernesta Hexamera o naruszenie praw autorskich. Hexamer był autorem mapy, w której znalazła się legenda, symbole i kolorystykę taka sama, jak na mapie stworzonej przez ojca Perrisa. W 1878 roku Sąd Najwyższy wydał w tej sprawie wyrok, w którym stwierdził, że nie doszło do naruszenia praw autorskich, gdyż Perris i Hexamer stworzyli różne mapy, które nie były wystarczająco do siebie podobne, a zduplikowaniem symboli to zbyt mało, by stwierdzić, że doszło do naruszenia praw autorskich. W obu sprawach mamy klasę zdefiniowanych funkcji, które są używane jako część dzieła chronionego prawem autorskim, jednak nie doszło tutaj do naruszenia samych praw autorskich, napisał profesor prawa Zvi Rosen.
      Ostateczny wyrok w tej sprawie ma zapaść w czerwcu.

      « powrót do artykułu
×
×
  • Create New...