Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  

Recommended Posts

Pięciu dużych producentów układów scalonych - IBM, ARM, Freescale, Samsung, ST-Ericsson i Texas Instuments - założyło organizację Linaro, której zadaniem jest inwestowanie w Linuksa i zwiększenie obecności tego systemu w urządzeniach konsumenckich.

Szybki rozwój oprogramowania open source możemy obserwować urządzeniach konsumenckich, które są bez przerwy połączone z internetem - mówi dyrektor Linaro Tom Lantzsch.

Linaro pomoże przyspieszyć ten rozwój, zwiększając inwestycje w kluczowe projekty opensource'owe oraz polepszając współpracę pomiędzy przemysłem a społecznościami - dodał.

Co ciekawe, Linaro, mimo iż ma skupiać się przede wszystkim na architekturze ARM, nie wyklucza współpracy z Intelem. Wręcz przeciwnie, jest zainteresowane również promocją MeeGo.

Założyciele Linaro zapewniają, że firma co pół roku będzie oferowała nowe wersje narzędzi, jądra i oprogramowania dla układów typu SoC (System-on-Chip).

Share this post


Link to post
Share on other sites

Windows jest tylko na platformę Intela, więc oczywiście, że powinno im zależeć na wsparciu alternatywnych systemów. Linux i Android są najlepszymi kandydatami.

Share this post


Link to post
Share on other sites
Guest shadowmajk

Windows jest tylko na platformę Intela, więc oczywiście, że powinno im zależeć na wsparciu alternatywnych systemów. Linux i Android są najlepszymi kandydatami.

 

Android to też linux, windows jest również na PPC i jakies padliny przenosne.

 

Swietny news, zwiekszy sie popularnosc linuxa pojawi sie wiecej softu i bedzie nam zylo sie lepiej. Ot to co mysle na ten temat.

Share this post


Link to post
Share on other sites

Jako uzytkownik - m.in - Linuksa obawiam sie uzaleznienia spolecznosci od wsparcia finansowego korporacji, poniewaz moze to m.in rodzic potrzebe 'rewanzowania' sie kodem w okreslonym kierunku - np ARM, co juz zreszta widac po celach statutowych Linaro, ale zobaczymy jak to bedzie, bo same obawy sa kiepska przeslanka do wydawania sadow dot. przyszlosci.

Share this post


Link to post
Share on other sites

Bardziej bym tam widział NetBSD czy Rtems ale skoro korporacjom bardziej sę opłaca linux , to niech go tam wpychają lepsze to niż zbloatowany zamknięty kod .

 

To dość ciekawe zagadnienie. Ceny oprogramowania dla korporacji są śmiesznie niskie. Tak więc darmowością to open source wiele nie nawojuje. Może wreszcie ktoś zauważa inne zalety...

Share this post


Link to post
Share on other sites

Ano dla przykładu dostosowanie AIXa na superkomputery wynosiłoby dziesiątki milionów dolarów , dostosowanie do różnych urządzeń SoC również setki tysięcy , stąd takim molochom bardziej się opłaca dać kilka tysięcy dolców devom linuxa aby zrobili wszystko za nich po dużo niższej cenie , czysta ekonomia , a nie żadna ideologia jak niektórzy by chcieli , bo często takimi firmami rządzą ludzie z giełdy którzy jedyne co widzą to wyniki finansowe na papierku .

 

Identycznie zresztą wygląda sytuacja z NetBSD którego dostosowano do Slidekicka , Freebsd które dostosował Panasonic do swoich telewizorów czy Rtemsem którego Raytheon zastosował w swoich radarach .

Share this post


Link to post
Share on other sites

Identycznie zresztą wygląda sytuacja z NetBSD którego dostosowano do Slidekicka , Freebsd które dostosował Panasonic do swoich telewizorów czy Rtemsem którego Raytheon zastosował w swoich radarach .

Tematyka *BSD jest mi bliska i obawiam sie, ze nie do konca rozumiem istote twojego przekazu. Prawdopodobnie zdajesz sobie sprawe z tego, ze licencja BSD jest bardzo liberalna, totez nie jest powiedziane, ze to projekt NetBSD musial cokolwiek dostosowywac - firma zewnetrzna mogla zwyczajnie wykorzystac komercyjnie dowolny - interesujacy ich - port okreslonej platformy sprzetowej NetBSD [i386 / ARM, etc] nie zwracajac niczego w zamian. Model jest w przypadku *BSD nieco rozny od linuksowego. Nie powstaja organizacje jak ta z tytulowego watku, sam rozwoj konkretnych portow NetBSD/OpenBSD odbywa sie inaczej. Z punktu widzenia technologii istotna jest tutaj separacja warstwy sterownikow, co ulatwia pisanie portow na nowe architektury sprzetowe.

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Badacze IBM-a postawili sobie ambitny cel. Chcą co roku dwukrotnie zwiększać wydajność komputerów kwantowych tak, by w końcu były one szybsze lub bardziej wydajne niż komputery klasyczne. Podczas tegorocznych targów CES IBM pokazał przełomowe urządzenie: IBM Q System One, pierwszy komputer kwantowy, który ma być gotowy do komercyjnego użytku.
      Celem IBM-a jest coś, co nazywają „Quantum Advantage” (Kwantowa przewaga). Zgodnie z tym założeniem komputery kwantowe mają zyskać „znaczną” przewagę nad komputerami klasycznymi. Przez „znaczną” rozumie się tutaj system, który albo będzie setki lub tysiące razy szybszy od komputerów kwantowych, albo będzie wykorzystywał niewielki ułamek pamięci potrzebny maszynom kwantowym lub też będzie w stanie wykonać zadania, jakich klasyczne komputery wykonać nie są.
      Wydajność komputera kwantowego można opisać albo za pomocą tego, jak sprawują się poszczególne kubity (kwantowe bity), albo też jako ogólną wydajność całego systemu.
      IBM poinformował, że Q System One może pochwalić się jednym z najniższych odsetków błędów, jakie kiedykolwiek zmierzono. Średni odsetek błędów na dwukubitowej bramce logicznej wynosi mniej niż 2%, a najlepszy zmierzony wynik to mniej niż 1%. Ponadto system ten jest bliski fizycznemu limitowi czasów koherencji, który w w przypadku Q System One wyniósł średnio 73 ms.To oznacza, że błędy wprowadzane przez działanie urządzenia są dość małe i zbliżamy się do osiągnięcia minimalnego możliwego odsetka błędów, oświadczyli badacze IBM-a.
      Błękitny Gigant stworzył też Quantum Volume, system pomiaru wydajności komputera kwantowego jako całości. Bierze on pod uwagę zarówno błędy na bramkach, błędyh pomiarów czy wydajność kompilatora. Jeśli chcemy osiągnąć Quantum Advantage w latach 20. XXI wieku, to każdego roku wartość Quantum Volume musi się co najmniej podwajać, stwierdzili badacze. Na razie udaje im się osiągnąć cel. Wydajność pięciokubitowego systemu Tenerife z 2017 roku wynosiła 4. W 2018 roku 20-kubitowy system IBM Q osiągnął w teście Quantum Volume wynik 8. Najnowszy zaś Q System One nieco przekroczył 16.
      Sądzimy, że obecnie przyszłość komputerów to przyszłość komputerów kwantowych, mówią specjaliści z IBM-a.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      IBM poinformował o podpisaniu porozumienia, w ramach którego Błękitny Gigant przejmie znanego producenta jednej z dystrybucji Linuksa, firmę Red Hat. Transakcja będzie warta 34 miliardy dolarów. Jeśli do niej dojdzie będzie to trzecia największa w historii akwizycja na rynku IT.
      Umowa przewiduje, że IBM wykupi akcje Red Hata, płacąc za każdą z nich 190 dolarów. Na zamknięciu ostatniej sesji giełdowej przed ogłoszeniem transakcji akcje Red Hata kosztowały 116,68 USD.
      Przejęcie Red Hata zmieni zasady gry. Całkowicie zmieni rynek chmur obliczeniowych, mówi szef IBM-a Ginni Rometty. "IBM stanie się największym na świecie dostawcą dla hybrydowych chmur i zaoferuje przedsiębiorcom jedyną otwartą architekturę chmur, dzięki której klient będzie mógł uzyskać z niej maksimum korzyści", dodał. Zdaniem menedżera obenie większość firm wstrzymuje się z rozwojem własnych chmur ze względu na zamknięte architektury takich rozwiązań.
      Jeszcze przed kilku laty IBM zajmował się głównie produkcją sprzętu komputerowego. W ostatnim czasie firma zdecydowanie weszła na takie rynki jak analityczny czy bezpieczeństwa. Teraz ma zamiar konkurować z Microsoftem, Amazonem czy Google'em na rynku chmur obliczeniowych.
      Po przejęciu Red Hat będzie niezależną jednostką zarządzaną przez obecnego szefa Jima Whitehursta i obecny zespół menedżerów. To ważny dzień dla świata open source. Doszło do największej transakcji w historii rynku oprogramowania i bierze w tym udział firma zajmująca się otwartym oprogramowaniem. Tworzymy historię, dodał Paul Cormier, wiceprezes Red Hata.
      Obecnie Red Hat ma siedziby w 35 krajach, zatrudnia około 12 000 osób je jest jednym z największych oraz najbardziej znanych graczy na rynku open source. W roku 2018 zysk firmy wyniósł 259 milionów dolarów czy przychodach rzędu 2,9 miliarda USD. Dla porównania, w 2017 roku przychody IBM-a zamknęły się kwotą 79 miliardów dolarów, a zysk to 5,8 miliarda USD.
      Na przejęcie muszą się jeszcze zgodzić akcjonariusze Red Hata oraz odpowiednie urzędy antymonopolowe.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Samsung zapowiedział inwestycje w wysokości... 161 miliardów dolarów. Dzięki tej olbrzymiej kwocie koncern chce zwiększyć swoje możliwości wytwórcze oraz zaoferować produkty, które zapewnią rozwój w przyszłości.
      Koreańska firma zainwestuje w sztuczną inteligencję, sieci bezprzewodowe piątej generacji, biofarmację, wyświetlacze, półprzewodniki i "inne kluczowe programy", poinformowali przedstawiciele Samsunga. Kolosalna kwota zostanie wydana w ciągu zaledwie trzech lat, a niemal 3/4 pieniędzy będą inwestowane w Korei Południowej.
      Samsung od dawna ma opinię firmy, która agresywnie inwestuje, nawet w czasach, gdy konkurencja zmniejsza poziom inwestycji. Dzięki takiej polityce stał się jednym z największych na świecie producentów układów scalonych. Dobrym przykładem jest właśnie wybudowana przez Samsunga największa na świecie fabryka smartfonów. Powstała ona, pomimo że udziały koreańskiej firmy w chińskim rynku uległy zmniejszeniu.
      Władze Samsunga uważają, że dzięki inwestycjom w sztuczną inteligencję ich firma stanie się jeszcze bardziej innowacyjna, a inwestycje w technologię 5G wspomogą rozwój Internet of Things, robotyki i autonomicznych samochodów. Dlatego też w swoich AI Centers Samsung chce zwiększyć liczbę naukowców do 1000 i ma zamiar stać się światowym potentatem na rynku układów scalonych, urządzeń i wyposażenia 5G. Chce też stać się liderem układów scalonych na rynku autonomicznych samochodów.
      Firma zainwestuje też w badania podstawowe, które mają w przyszłości wspomóc rozwój technologii, którymi jest zainteresowana.
      Wspólnie z rządem Korei Samsung założy też i będzie prowadził centra programistyczne w całym kraju. Ma w nich pobierać naukę 10 000 osób. Firma zacieśni też współpracę z czołowymi krajowymi instytutami naukowymi.
      Oświadczenie o wielkich inwestycjach zostało wydane kilka dni po spotkaniu rządzącego de facto Samsungiem Lee Jae-yonga z koreańskim ministrem finansów Kim Dong-yeonem.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Samsung rozpoczął publikację łatek dla sześciu krytycznych dziur znalezionych w jego flagowych smartfonach z Androidem. Dziury pozwalają na przeprowadzenie wielu różnych ataków, od zdalnego wykonania złośliwego kodu po doprowadzenie do błędu przepełnienia bufora. O istnieniu błędów poinformowano w April Android Security Bulletin wydawanym przez Google'a.
      W sumie Samsung załatał 27 dziur, z których 21 uznano za groźne. Wspomniane na wstępie 5 krytycznych dziur jest związanych z obsługą procedorów Snapdragon oraz z platformą Snapdragon Wear i Snapdragon Automotive. Luki występują w telefonach Galaxy S8, Galaxy S9 i Galaxy Note 8.
      Jedna z luk pozwala napastnikowi na wykorzystanie specjalnie spreparowanego pliku do wykonania dowolnego kodu w kontekście uprzywilejowanego procesu. W indeksie CVSS dziura ta otrzymała aż 9,8 punktu. Identycznie oceniona luka, powodująca niewłaściwą kontrolę dostępu podczas konfigurowania jednostki korekcji błędów MPU może prowadzić do ujawnienia poufnych danych. Błąd ten jest ciągle analizowany.
      Jeszcze inny błąd występuje w module weryfikacyjnym Elliptic Curve Digital Signature Algorithm (ECDSA). Eksperci ostrzegają, że w pewnych przypadkach na platformach Snapdragon Automobile, Snapdragon Mobile i Snapdragon Wear może dojść do błędu weryfikacji.
      Interesującym błędem jest też dziura typu „peek and poke”. Ten typ luki, znany od lat 80. ubiegłego wieku, daje napastnikowi dostęp do konkretnego adresu pamięci i możliwość zmiany znajdujących się tam danych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      IBM pokaże dzisiaj prototypowy optyczny układ scalony „Holey Optochip“. To pierwszy równoległy optyczny nadajnik-odbiornik pracujący z prędkością terabita na sekundę. Urządzenie działa zatem ośmiokrotnie szybciej niż inne tego typu kości. Układ pozwala na tak szybki transfer danych, że mógłby obsłużyć jednocześnie 100 000 typowych użytkowników internetu. Za jego pomocą można by w ciągu około godziny przesłać zawartość Biblioteki Kongresu USA, największej biblioteki świata.
      Holey Optochip powstał dzięki wywierceniu 48 otworów w standardowym układzie CMOS. Dało to dostęp do 24 optycznych nadajników i 24 optycznych odbiorników. Przy tworzeniu kości zwrócono też uwagę na pobór mocy. Jest on jednym z najbardziej energooszczędnych układów pod względem ilości energii potrzebnej do przesłania jednego bita informacji. Holey Optochip potrzebuje do pracy zaledwie 5 watów.
      Cały układ mierzy zaledwie 5,2x5,8 mm. Odbiornikami sygnału są fotodiody, a nadajnikami standardowe lasery półprzewodnikowe VCSEL pracujące emitujące światło o długości fali 850 nm.
×
×
  • Create New...