Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags ' Google'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 12 results

  1. Trenowanie systemów sztucznej inteligencji trwa obecnie wiele tygodni. Firma Cerebras Systems twierdzi, że potrafi skrócić ten czas do kilku godzin. Pomysł polega na tym, by móc testować więcej pomysłów, niż obecnie. Jeśli moglibyśmy wytrenować sieć neuronową w ciągu 2-3 godzin, to rocznie możemy przetestować tysiące rozwiązań, mówi Andrew Feldman, dyrektor i współzałożyciel Cerebras. Jeśli chcemy wytrenować sieć sztucznej inteligencji, która np. ma zarządzać autonomicznym samochodem, potrzebujemy wielu tygodni i olbrzymiej mocy obliczeniowej. Sieć musi przeanalizować olbrzymią liczbę zdjęć czy materiałów wideo, by nauczyć się rozpoznawania istotnych obiektów na drodze. Klienci Cerebras skarżą się, że obecnie trenowanie dużej sieci neuronowej może trwać nawet 6 tygodni. W tym tempie firma może wytrenować około 6 sieci rocznie. To zdecydowanie zbyt mało dla przedsiębiorstw, które chcą sprawdzić wiele nowych pomysłów za pomocą SI. Rozwiązaniem problemu ma być komputer CS-1, a właściwie jego niezwykły procesor. Maszyny CS-1 mają wysokość 64 centymetrów, a każda z nich potrzebuje do pracy 20 kW. Jednak 3/4 obudowy każdego z komputerów zajmuje układ chłodzenia, a tym, co najbardziej rzuca się w oczy jest olbrzymi układ scalony. Zajmuje on powierzchnię 46 255 milimetrów kwadratowych, czyli około 50-krotnie więcej niż tradycyjny procesor. Zawiera 1,2 biliona tranzystorów, 400 000 rdzeni obliczeniowych i 18 gigabajtów pamięci SRAM. Procesor o nazwie Wafer Scale Engine (WSE) wypada znacznie lepiej niż podobne systemy. Jak zapewniają przedstawiciele Cerebras, ich maszyna, w porównaniu z klastrem TPU2 wykorzystywanym przez Google'a do trenowania SI, zużywa 5-krotnie mniej energii i zajmuje 30-krotnie mniej miejsca, a jest przy tym 3-krotnie bardziej wydajna. Takie zestawienie brzmi imponująco, a na ile rzeczywiście WSE jest lepszy od dotychczasowych rozwiązań powinno ostatecznie okazać się w bieżącym roku. Jak zauważa analityk Mike Demler, sieci neuronowe stają się coraz bardziej złożone, więc możliwość szybkiego ich trenowania jest niezwykle ważna. Trzeba jednak przyznać, że w twierdzeniach Cerebras musi być ziarno prawdy. Wśród klientów firmy jest m.in. Argonne National Laboratory, które ma już maszyny CS-1 u siebie. Zapewne już wkrótce dowiemy się, czy rzeczywiście zapewniają one tak wielką wydajność i pozwalają tak szybko trenować sieci neuronowe. Twórcami Cerebras są specjaliści, którzy pracowali w firmie Sea Micro, przejętej przez AMD. Pomysł stworzenia komputera wyspecjalizowanego w sztucznej inteligencji zaczął kiełkować w ich głowach w 2015 roku. Stwierdzili, że odpowiedni procesor musi być w stanie szybko przesyłać duże ilości danych, układy pamięci muszą znajdować się blisko rdzenia, a same rdzenie nie powinny zajmować się danymi, którymi już zajmują się inne rdzenie. To zś oznaczało, że tego typu układ musi składać się z olbrzymiej liczby niewielkich rdzeni wyspecjalizowanych w obliczeniach z zakresu sieci neuronowych, połączenia między rdzeniami muszą być szybkie i zużywać niewiele energii, a wszystkie dane muszą być dostępne na procesorze, a nie w osobnych układach pamięci. Twórcy Cerebras uznali, że tym, czego potrzebują, jest chip niemalże wielkości całego plastra krzemowego. Udało im się taki układ skonstruować, chociaż nie było to łatwe zadanie i wciąż muszą poradzić sobie z licznymi problemami. Jednym z nich było poradzenie sobie z filozofią tworzenia współczesnych plastrów krzemowych. Obecnie z pojedynczego plastra tworzy się wiele procesorów. Po ich przygotowaniu, plaster, zawierający wiele identycznych układów, jest cięty. W procesie przygotowywania plastra do produkcji tworzy się na nim specjalne linie, wzdłuż których przebiegają cięcia. Tymczasem Cerebras potrzebowało takiego plastra w całości, z połączeniami pomiędzy poszczególnymi rdzeniami. To zaś wymagało nawiązania współpracy z TSMC i opracowania metody przeprowadzenia połączeń przez linie. Wysiłek się opłacił. Poszczególne rdzenie komunikują się między sobą z prędkością 1000 Pb/s, a komunikacja pomiędzy pamięcią a rdzeniami przebiega w tempie do 9 PB/s. To nie jest trochę więcej. To o cztery rzędy wielkości więcej, gdyż wszystko odbywa się w ramach tego samego plastra, cieszy się Feldman. Jednak przeprowadzenie połączeń przez linie nie był jedynym problemem. Trzeba było zmodyfikować cały proces projektowania i produkcji układów. Nawet oprogramowanie do projektowania procesorów jest przygotowane pod niewielkie układy. Każda zasada, każde narzędzie i każde urządzenie jest obecnie dostosowana do produkcji układów scalonych o zwyczajowych rozmiarach. My zaś potrzebujemy czegoś znacznie większego, dlatego też musieliśmy na nowo opracować każdy element, dodaje Feldman. Jeszcze innym problemem okazało się zasilanie takiego układu. Każdy z 1,2 biliona tranzystorów potrzebuje 0,8 wolta. To standardowe napięcie, ale tranzystorów jest tak dużo, że do układu należy doprowadzić prąd o natężeniu 20 000 amperów. Uzyskanie w całym plastrze 20 000 amperów bez znacznego spadku napięcia było kolejnym wyzwaniem inżynieryjnym, mówią przedstawiciele Cerebras. Doprowadzenie prądu do krawędzi WSE nie wchodziło w rachubę, gdyż opory spowodowałyby spadek napięcia do zera zanim prąd osiągnąłby środek układu. Rozwiązaniem okazało się prostopadłe podłączenie od góry. Inżynierowie Cerebras zaprojektowali specjalny zestaw składający się z setek układów wyspecjalizowanych w kontrolowaniu przepływu prądu. Za pomocą miliona miedzianych połączeń dostarcza on zasilanie do WSE. Cerebras nie podaje żadnych danych odnośnie testów wydajności swojego rozwiązania w porównaniu z innymi systemami. Zamiast tego firma zachęca swoich klientów, by po prostu sprawdzili, czy  CS-1 i WSE sprawują się lepiej w zadaniach, których ci klienci potrzebują. Nie ma w tym jednak nic dziwnego. Każdy korzysta z własnych modeli dostosowanych do własnych potrzeb. To jedyne co się liczy dla klienta, mówi analityk Karl Freund. Jednym z takich klientów jest właśnie Argonne National Laboratory. Ma ono dość specyficzne potrzeby. Wykorzystuje sieci neuronowe do rozpoznawania różnych rodzajów fal grawitacyjnych w czasie rzeczywistym. Pracujący tam specjaliści wolą więc samodzielnie przekonać się, czy nowe urządzenie lepiej sprawdzi się w tych zastosowaniach niż dotychczas stosowane superkomputery. « powrót do artykułu
  2. Microsoft udostępnił właśnie gotową najnowszą wersję swojej przeglądarki Edge. Co interesujące, wzmacnia ona pozycję Google'a i wizję internetu propagowaną przez wyszukiwarkowego giganta. W nowym Edge'u zastosowano bowiem silnik Blink, wykorzystywany w przeglądarce Chrome. Internet Explorer, który w przeszłości dominował na rynku przeglądarek internetowych, z czasem stał się dla Microsoftu poważnym obciążeniem. Z jednej bowiem strony coraz bardziej odstawał od standardów nowoczesnej sieci, z drugiej zaś, koncern nie mógł go nagle porzucić lub radykalnie zmodernizować, gdyż zbyt wiele witryn i programów firm trzecich działało prawidłowo wyłącznie na starszych wersjach IE. Rozwój tego programu stał się więc bardzo uciążliwy, konieczne było zachowywanie wieloletniej kompatybilności wstecznej przy jednoczesnej próbie dostosowywanie IE do wymogów współczesności. Przeglądarka stawała się przez to coraz bardziej ociężała i pełna błędów, a jednocześnie coraz bardziej odstawała od konkurencji. Microsoft postanowił więc jednocześnie rozwijać kolejny projekt. Przeglądarka Edge zadebiutowała w 2015 roku, a jej silnikiem był Edge HTML. Przeglądarka była wyraźnie lepsza od IE, dorównywała produktom konkurencji, a w niektórych aspektach je przewyższała, jednak było już za późno. Klienci masowo odwrócili się od produktu Microsoftu i wybrali Firefoksa oraz Chrome'a. W końcu po trzech kolejnych latach koncern z Redmond doszedł do wniosku, że rozwijanie przeglądarki na własnym silniku mija się z celem i w grudniu 2018 roku ogłosił rozpoczęcie prac nad Edge'em z silnikiem Blink. Wczoraj koncern udostępnił gotową przeglądarkę. Nowy Microsoft Edge jest dostępny dla wszystkich wspieranych wersji Microsoft Windows oraz MacOS w ponad 90 wersjach językowych, oznajmił wiceprezes Microsoftu ds. korporacyjnych, Joe Belfiore. Najnowsza wersja przeglądarki nie jest obecnie włączona do systemu automatycznych aktualizacji, więc pobrać można ją jedynie ręcznie. Obecnie sytuacja wygląda zatem tak, że Microsoft wspiera pięć wersji Edge'a. Edycje oznaczone numerami wersji 41.16299 (z września 2017), 42.17124 (z kwietnia 2018), 44.17763 (z października 2018) oraz 44.18362 (z maja 2019) to Edge z silnikiem EdgeHTML. Z kolei najnowsza wersja przeglądarki Microsoftu, Edge 79.0.309 zadebiutowała wczoraj i korzysta z silnika Blink. Microsoft zapowiada, że rozwój EdgeHTML będzie podtrzymany na potrzeby Universal Windows Platform oraz że silnik ten będzie w pełni kompatybilny z silnikiem Blink. Obecnie na rynku przeglądarek internetowych dla komputerów stacjonarnych zdecydowanie dominuje Chrome, którego udziały sięgają 67,28%. Na drugim miejscu znajdziemy Firefoksa (9%), na trzecim Internet Explorera (7,42%), a Edge znajduje się na czwartej pozycji z udziałami 5,56%. Na rynku mobilnym przeglądarki Microsoftu mają łącznie 0,05% udziałów i zajmują 13. oraz 15. pozycję. Już wcześniej ambicję rozwijania własnego silnika porzuciły Opera, Samsung, Brave, Vivaldi i inni. Dołączenie do tego grona Microsoftu tylko wzmacnia pozycję Google'a względem wciąż jeszcze niezależnych silników wykorzystywanych przez Firefoksa i Safari. Zdecydowana większość internautów używa już Chrome'a lub silnika Chrome'a i nie zauważa większych problemów z kompatybilnością. Czym więc Microsoft chce zachęcić ich do korzystania z Edge'a? Koncern podkreśla dwie cechy: produktywność i prywatność. W zakresie produktywności użytkowników mają przyciągnąć narzędzia takie jak Collections, które pozwalają na zebranie z wielu witryn informacji na konkretny temat. Jeśli zaś chodzi o prywatność to koncern z Redmond próbuje blokować śledzenie użytkowników przez witryny. To podejście podobne do stosowanego przez Mozillę w Firefoksie. Google pozostaje tutaj nieco z tyłu, uważając, że zbyt restrykcyjne blokowanie zagraża rozwojowi sieci, gdyż pozbawia dochodów przede wszystkim małe witryny, służąc wielkim firmom, które są w stanie samodzielnie rozwijać technologie omijające blokady stosowane w przeglądarkach. Chociaż i w tym zakresie wyszukiwarkowy koncern zmienia stanowisko i zapowiada, że w ciągu dwóch lat do Chrome'a trafią bardziej restrykcyjne mechanizmy kontroli prywatności. Na razie Microsoft kieruje nowego Edge'a przede wszystkim do użytkowników biznesowych, gdzie potrzebna jest dobra integracja przeglądarki z narzędziami do zarządzania oraz kompatybilność z IE. Edge zawiera też ułatwienia dla użytkowników MS Office'a czy Binga. Jednak w ciągu najbliższych 2-3 tygodni koncern zacznie coraz szerzej propagować Edge'a wśród użytkowników indywitualnych, powoli też przeglądarka z nowym silnikiem będzie trafiała do Windows Update. Ma temu towarzyszyć rozpisana na wiele miesięcy kampania informacyjna, gdyż większość internautów nie wie o przebudowie Edge'a i nie rozpozna nowej ikon przeglądarki. Historia Internet Explorera, Edge'a i Edge'a z silnikiem Chrome'a dobrze obrazują ewolucję rynku i samego Microsoftu, który w przeszłości dominował na rynku przeglądarek i w dużej mierze decydował, jak wygląda internet, a teraz pogodzony z wieloplatformową rzeczywistością współczesnego świata IT stosuje rozwiązania konkurencji i dba o interoperacyjność. « powrót do artykułu
  3. Amerykańscy giganci IT zwierają szyki przed marcowym posiedzeniem Sądu Najwyższego USA, który rozstrzygnie spór dotyczący kwestii patentowania oprogramowania i zasady fair use. Wyrok może mieć olbrzymie znaczenie dla światowego przemysłu nowoczesnych technologii. Sprawa sięga roku 2010 i dotyczy sporu pomiędzy Google'em a Oracle'em. W ciągu zaledwie tygodnia po tym, jak Google przesłało swoje stanowisko w tej sprawie, do Sądu Najwyższego zgłosiło się 21 podmiotów, chcących wystąpić jako amicus curiae. Termin ten określa osobę lub inny podmiot, który nie jest stroną w postępowaniu sądowym, ale dobrowolnie z własnej inicjatywy oferuje sądowi własną opinię prawną. Sąd nie ma ani obowiązku dopuszczenia takiej opinii, ani – jeśli nawet ją dopuści – jej uwzględnienia. We wspomnianej sprawie większość amici curiae wspiera stanowisko Google'a. Wyszukiwarkowy gigant może liczyć m.in. na wsparcie IBM-a, Microsoftu, Mozilli, organizacji biznesowych czy środowisk naukowych. Już w pierwszym zdaniu opinii wysłanej przez IBM-a czytamy, że interfejsy komputerowe nie podlegają prawom autorskim. Z kolei Microsoft argumentuje, że Sąd Najwyższy powinien przywrócić obalony w apelacji wyrok sądu niższej instancji, który uznał, że Google miał prawo na zasadach fair use, wykorzystać chronione prawem autorskim API Javy. W innych opiniach stwierdzono, że jeśli sąd uzna stanowisko Oracle'a, będzie miało to niekorzystny wpływ nie tylko na przemysł IT, ale również na odniesienia w dziełach artystycznych do innych dzieł czy nawet na kwestie naprawy samochodów. Spór toczy się o wykorzystanie API języka JAVA. Język Java został stworzony w latach 90. ubiegłego wieku przez Sun Microsystems. Firma udostępniła go bezpłatnie developerom, jednak pobierała opłaty tam, gdzie Java była komercyjnie wykorzystywana. W 2010 roku Oracle kupił Suna, a Google stało się pierwszą firmą, którą koncern Ellisona wziął na celownik, domagają się respektowania swoich praw. W 2012 roku po odrzuceniu zarzutów dotyczących kwestii patentowych i po tym, jak ława przysięgłych nie mogła zdecydować, czy użycie API Javy przez Google'a podlega zasadzie fair use, sąd okręgowy orzekł, że API Javy nie są chronione prawem autorskim. Oracle się odwołał i w 2014 roku federalny sąd apelacyjny stwierdził, że interfejsy mogą być chronione prawem autorskim, jednak nie rozstrzygnął, czy wykorzystanie przez Google'a API Javy było zgodne z zasadami fair use. W tej sytuacji Google odwołał się do Sądu Najwyższego, jednak ten odmówił zajęcia się sprawą. Proces wrócił do sądu okręgowego, a ten w 2016 roku stwierdził, że Google postąpiło zgodnie z zasadami fair-use. Ten wyrok nie spodobał się Oracle'owi, który złożył apelację do sądu federalnego. Ten zaś stwierdził, że wykorzystanie przez Google'a API nie było zgodne z zasadmi fair-use. Google poprosił o powtórzenie procesu w pełnym składzie sądu, ale wniosek odrzucono. Wobec tego w 2019 roku Google ponownie zwrócił się do Sądu Najwyższego o rozpatrzenie sprawy, a ten wyraził zgodę. Prawnicy Google'a argumentują, że zwycięstwo Oracle'a będzie zagrożeniem dla całego przemysłu i po raz pierwszy da właścicielowi praw autorskim monopol, który negatywnie wpłynie na tworzenie i implementację oprogramowania. Prawnicy Oracle'a odpierają zarzuty stwierdzając, że od czasu, gdy po raz pierwszy federalny sąd apelacyjny stanął po stronie Oracle'a i uznał, że Google naruszył prawa tej firmy tempo innowacyjności tylko wzrosło, zwiększając liczbę miejsc pracy i dając kolejne możliwości rozwoju. Oracle twierdzi, że Google próbuje po prostu uniknąć konieczności zapłacenia za naruszenie własności intelektualnej. Już dwa lata temu wyrok sądu federalnego został skrytykowany przez profesora prawa Jonathana Banda na łamach Harvard Journal of Law and Technology. W sporze tym pojawił się nawet argument odwołujący się do... sporu o prawa autorskie z XIX wieku. Otóż w 1874 roku William Perris pozwał Ernesta Hexamera o naruszenie praw autorskich. Hexamer był autorem mapy, w której znalazła się legenda, symbole i kolorystykę taka sama, jak na mapie stworzonej przez ojca Perrisa. W 1878 roku Sąd Najwyższy wydał w tej sprawie wyrok, w którym stwierdził, że nie doszło do naruszenia praw autorskich, gdyż Perris i Hexamer stworzyli różne mapy, które nie były wystarczająco do siebie podobne, a zduplikowaniem symboli to zbyt mało, by stwierdzić, że doszło do naruszenia praw autorskich. W obu sprawach mamy klasę zdefiniowanych funkcji, które są używane jako część dzieła chronionego prawem autorskim, jednak nie doszło tutaj do naruszenia samych praw autorskich, napisał profesor prawa Zvi Rosen. Ostateczny wyrok w tej sprawie ma zapaść w czerwcu. « powrót do artykułu
  4. Apple oskarża Google'a o próbę wywołania strachu u wszystkich użytkowników iPhone'ów poprzez rozpowszechnianie fałszywej informacji jakoby doszło do wielkiego ataku na iPhone'y. Przypomnijmy, że na przełomie sierpnia i września google'owski Project Zero poinformował o odkryciu licznych witryn, które prowadzą szeroko zakrojone ataki na iPhone'y. Tymczasem, jak informuje rzecznik prasowy Apple'a Fred Sainz, atak był prowadzony na niewielką skalę, a badacze Google'a znaleźli zaledwie kilka witryn skierowanych do zamieszkującej Chiny mniejszości ujgurskiej, które atakowały swoich użytkowników. Wystarczy odwiedzić witrynę, by zostać zaatakowanym, napisał na blogu Project Zero jeden z pracowników Google'a Ian Beer. Udany atak pozwalał na ustalenie lokalizacji telefonu oraz kradzież zdjęć i haseł. Beer dodał, że ataki są prowadzone od co najmniej dwóch lat. Apple nie zaprzecza tym informacjom, jednak zauważa, że przedstawiciele Google'a pominęli ważne informacje. Po pierwsze ataki trafały dwa miesiące, nie dwa lata. Po drugie, były prowadzone przeciwko mniejszości ujgurskiej w Chinach, co wskazuje na działania chińskiego rządu, i nie można ich nazwać szeroko zakrojonymi. Ponadto, jak twierdzi Apple, te same witryny atakowały też użytkowników Windows i Androida, ale Google o tym nie wspomniał. Przedstawiciele Google'a tłumaczą, że nic nie wiedzieli o atakach na Androida. « powrót do artykułu
  5. Dwóch amerykańskich senatorów, demokrata Josh Hawley i republikanin Mark Warner, przygotowało projekt ustawy, której celem jest lepszy nadzór nad danymi osobowymi przechowywanymi przez wielkie koncerny. Ustawa ma zmusić Facebooka, Google'a, czy Amazona do ujawnienia ile danych osobowych przechowują oraz w jaki sposób – pośredni i bezpośredni – na nich zarabiają. DASHBOARD (Designing Accounting Safeguards to Help Broaden Oversight And Regulations on Data Act) dotyczyłaby przedsiębiorstw, które mają miesięcznie ponad 100 milionów unikatowych użytkowników i zobowiązybałaby je do ujawnienia szczegółów dotyczących zarabiania na danych użytkowników. Projekt ustawy zakłada, że raz na 90 dni wspomniane firmy miałyby obowiązek poinformowania każdego z użytkowników o szacowanej wartości danych tego użytkownika przechowywanych przez operatora. Gdy wielkie koncerny twierdzą, że ich produkt jest darmowy, tak naprawdę sprzedają konsumentów. Co więcej, firmy IT robią wszystko, by ukryć informacje o tym, ile warte są dane użytkownika i komu zostały sprzedane, oświadczył senator Hawley. Przez lata serwisy społecznościowe twierdziły, że ich usługi są darmowe. Jednak to nie jest prawda, użytkownik płaci za te usługi swoimi danymi, dodał senator Warner. Zdaniem twórców ustawy, nowe przepisy pozwolą konsumentom zrozumieć, jaka jest prawdziwa wartość ich danych, dadzą im nad nimi kontrolę i pokażą, że to co rzekomo darmowe, tak naprawdę słono kosztuje. Warto w tym miejscu przypomnieć, że od wielu lat pojawiają się próby powołania do życia czegoś, co można by nazwać „ekonomią danych osobowych”. To próby przekazania użytkownikom zarówno kontroli nad własnymi danymi oraz możliwości pobierania opłat za korzystanie z nich. Nad tego typu pomysłem, projektem o nazwie „Bali”, pracuje m.in. Microsoft. Gdyby ustawa DASHBOARD została przyjęta przez Kongres, z pewnością ułatwiłoby to powstanie „ekonomii danych osobowych”. « powrót do artykułu
  6. Część udziałowców konglomeratu Alphabet – do którego należy m.in. Google – przedstawi dzisiaj propozycję podziału firmy. Zostanie ona zaprezentowana na dorocznym zgromadzeniu akcjonariuszy przez organizację SumOfUs. To amerykańska grupa, której celem jest ograniczenie rosnącej potęgi korporacji. Urzędnicy w USA i Unii Europejskiej są coraz bardziej zaniepokojeni rosnącą potęgą Alphabetu w kontekście działań antymonopolowych. Uważamy, że udziałowcy odniosą więcej korzyści z dobrowolnego strategicznego ograniczenia rozmiarów firmy, niż z jej przymusowego podziału przez urzędy antymonopolowe, czytamy w propozycji. Z góry jednak wiadomo, że inicjatywa nie ma żadnych szans powodzenia, gdyż dwóch najważniejszych menedżerów Alphabetu, Larry Page i Sergey Brin, posiada łącznie 51,3% udziałów. Działania udziałowców pokazują jednak, że biorą pod uwagę rosnący nacisk na podjęcie działań antymonopolowych wobec internetowych gigantów. Opinia publiczna, a za nią i politycy, coraz bardziej martwi się kolejnymi skandalami trapiącymi internetowych gigantów, jak wycieki danych, naruszenia prywatności, praktyki monopolistyczne czy stosowana przez nich cenzura. Na początku bieżącego miesiąca media doniosły, że amerykański Departament Sprawiedliwości i Federalna Komisja Handlu mają zamiar wszcząć śledztwo, którego celem będzie sprawdzenie, czy Google, Amazon, Apple i Facebook nie nadużywają swojej pozycji rynkowej. Podczas dzisiejszego spotkania zostanie przedstawionych 13 propozycji, nad którymi odbędzie się głosowanie. Grupa pracowników Google'a wspiera 5 z nich, które sama pomagała przygotować, ale jest przeciwna podziałowi koncernu. Przed zgromadzeniem akcjonariuszy wystąpią liderzy Ujgurów i Tybetańczyków, których martwi współpraca Google'a z rządem Chin. « powrót do artykułu
  7. Emma Haruka Iwao, pracownica Google'a z Japonii, obliczyła π z dokładnością ok. 31 bilionów miejsc po przecinku. Tym samym pobiła rekord Petera Trueba z listopada 2016 r., który uzyskał dokładność ok. 22,5 biliona miejsc po przecinku. Iwao wykorzystała chmurę obliczeniową swojej firmy i 25 maszyn wirtualnych. Obliczenia potrwały 121 dni, a sama liczba zajęła 170 TB. Japonka, która przyznaje, jest zafascynowana liczbą pi od dzieciństwa, podkreśla, że pobicie rekordu nie było łatwe. Nie przeszkadza jej to jednak myśleć o następnych etapach prac. Liczba pi nie ma końca, marzę [więc] o próbach z kolejnymi miejscami po przecinku. Wymówienie "dzieła" Iwao zajęłoby 332.064 lata. Google poinformował o dokonaniu informatyczki w przypadającym 14 marca Dniu Liczby Pi. Warto przypomnieć, że 8,5 roku temu Nicholas Sze wykorzystał chmurę obliczeniową Yahoo, by stwierdzić, że na dwukwadrylionowym miejscu po przecinku znajduje się 0. Nie zajmował się jednak cyframi pomiędzy. « powrót do artykułu
  8. Alphabet, konglomerat do którego należy Google, powołał do życia firmę, która oferuje przedsiębiorstwom pomoc w wyśledzeniu źródeł cyberataku. Firma o nazwie Chronicle przygotowała platformę Blackstory. Daje ona klientom dostęp do olbrzymich zasobów Alphabetu, w tym zgromadzonych przez lata przez wyszukiwarkę Google, co powinno ułatwić w zidentyfikowaniu historii i źródła cyberataku. Przed 10 laty Google padło ofiarą jednego z najbardziej głośnych ataków. Na serwery firmy włamali się hakerzy pracujący dla chińskiej armii. Teraz Alphabet, korzystając z tamtych doświadczeń, oferuje przedsiębiorstwom pomoc w ustaleniu sprawców ataków. Chronicle nie jest jedyną firmą, która oferuje podobne usługi. Na rynku działają też inni, ale wielu przedsiębiorstw nie stać na ich usługi. Dlatego Chronicle zaproponowało interesujący sposób naliczania opłat. Koszt korzystania z Blackstory będzie uzależniony od... liczby pracowników zatrudnianych przez firmę. Atak na Google'a, nazwany Operation Aurora, był wyjątkowy z tego względu, że po raz pierwszy ofiara ataku chińskich rządowych hakerów stanęła do konfrontacji z tak potężnym przeciwnikiem. Siergiej Brin, jeden z założycieli Google'a, postawił sobie za punkt honoru, by coś takiego jak Aurora nigdy się nie powtórzyło. Gdy Chińczycy zaatakowali w 2010 roku był to dla nas dzwonek alarmowy. To całkowicie zmieniło nasze podejście, mówi Eric Schmidt, ówczesny dyrektor generalny Google'a. Wyszukiwarkowy gigant zaczął wówczas masowo zatrudniać specjalistów ds. bezpieczeństwa. Szukał ich nie tylko w Krzemowej Dolinie, ale również osławionej Agencji Bezpieczeństwa Narodowego (NSA). Firma stworzyła zespół analityków specjalizujących się w kwestiach bezpieczeństwa, który ponoć nie ustępuje analogicznym zespołom pracującym dla wywiadów różnych państw. Stworzono też nową infrastrukturę bezpieczeństwa, postał zespół o nazwie Google Project Zero, którego zadaniem jest wyszukiwanie luk w programach innych producentów. Bazy danych, algorytmy wyszukiwarki i cała moc obliczeniowa Google'a zostały przebudowane tak, by zapewniały największe możliwe bezpieczeństwo. Jeśli cokolwiek niepokojącego pojawi się w internecie, czy będzie to atak hakerów czy złośliwy kod, Google jest w stanie w ciągu kilku minut sprawdzić czy kiedykolwiek, nawet lata wcześniej, problem ten nie dotknął firmowych zasobów IT. Większość przedsiębiorstw nie jest sobie w stanie poradzić z tego typu zadaniem. A te, które oferują takie usługi, pobierają opłaty w zależności od ilości danych, jakie muszą przechowywać. Zatem im dłużej firma działa, tym więcej danych jest gromadzonych, i tym więcej trzeba za to płacić. Chronicle ma zaoferować bardziej przystępne ceny. Chronicle to pomysł Mike'a Wiaceka, który najpierw pracował dla NSA, a później w Google'u tworzył grupę analityków bezpieczeństwa oraz Stephena Gilletta, byłego menedżera w Starbucks i Symanteka. « powrót do artykułu
  9. Google przygotowuje się do uruchomienia pierwszego w USA przedsiębiorstwa taksówkowego z autonomicznymi samochodami. Analitycy przewidują, że do roku 2030 rynek tego typu usług będzie warty 2,3 biliona dolarów, a Waymo, firma Google'a, będzie miała w nim 60-procentowe udziały. Przez ostatni rok prowadzony był program pilotażowy Waymo, który objął 400 gospodarstw domowych w Chandler w Arizonie. Obecnie w samochodach Waymo siedzi kierowca, który ma reagować w sytuacjach tego wymagających. W niedługiej przyszłości autonomiczne samochody Waymo mają być nadzorowane z centrum operacyjnego. Kierowca zniknie z pojazdu, a każdy z zatrudnionych w centrum operatorów będzie miał do pod opieką kilkanaście samochodów. Obecnie w USA jeździ około 305 000 taksówek i samochodów świadczących podobne usługi. Waymo zamówiło już 82 000 pojazdów. W 2019 roku Waymo ma zacząć świadczyć usługi w Arizonie i Kalifornii. Serwisowaniem pojazdów zajmie się firma Avis, która ma pod opieką 400 000 pojazdów w całych Stanach Zjednoczonych. Warto w tym miejscu przyjrzeć się finansom Ubera. W ciągu ostatnich trzech miesięcy przychody tej firmy sięgnęły 2,8 miliarda dolarów, ale firma zanotowała stratę w wysokości 890 milionów. Gdyby nie musiała płacić kierowcom, odniosłaby zysk. Google posiada wystarczająco pieniędzy, by zakupić kilkadziesiąt czy kilkaset tysięcy samochodów i wejść na rynek usług przewozowych. Plany Google'a są jak najbardzej realne. Już w 2024 autonomiczne samochodu mogą przewieźć w USA ponad 50% pasażerów. Pozbycie się kierowców obniży koszty podróży, a w przyszłości elektryczne autonomiczne samochody i ich eksploatacja mogą być nawet 10-krotnie tańsze niż obecne samochody spalinowe. W ten sposób każdy Amerykanin może zaoszczędzić na kosztach podróży 5–10 tysięcy dolarów rocznie. Niższe koszty transportu to jego łatwiejsza dostępność, powinno to pozytywnie wpłynąć na gospodarkę. Jeśli zaś przyjmiemy, że początkowo autonomiczne samochody będą 4-krotnie bardziej bezpieczne, to amerykańska gospodarka zaoszczędzi 600 z 870 miliardów USD, które obecnie kosztują wypadki drogowe. « powrót do artykułu
  10. Ciągły spadek zainteresowana Facebookiem w USA powoduje, że w ciągu 2-3 miesięcy straci on na rzecz YouTube'a pozycję drugiej najchętniej odwiedzanej witryny w USA. W ciągu ostatnich 2 lat ruch generowany na Facebooku przez Amerykanów zmniejszył się niemal o połowę. Tymczasem popularność YouTube'a ciągle rośnie. Badania przeprowadzone przez firmę SimilarWeb na zlecenie CNBC ujawniły, że miesięczna liczba odsłon Facebooka dokonywana z USA zmniejszyła się z 8,5 miliarda przed dwoma laty do obecnych 4,7 miliarda. Skandale takie jak ten związany z Cambridge Analytica pokazały, że serwis Zuckerberga nie potrafi upilnować danych użytkowników, co zniechęciło znaczną ich część. Co prawda aplikacje Facebooka są coraz popularniejsze, jednak te wzrosty nie rekompensują spadku odwiedzin witryny. Niezagrożona pozostaje pozycja Google'a. W lipcu bieżącego roku witrynę tę Amerykanie odwiedzili aż 15 miliardów razy. Poza nią, Facebookiem i YouTube'em w najpopularniejszej piątce witryn plasują się jeszcze Yahoo! i Amazon. Zaskakujący może być fakt, że Yahoo! jest wciąż popularniejsze od Amazona, jednak najprawdopodobniej zmieni się to w ciągu najbliższych miesięcy. Od ubiegłorocznych świąt Bożego Narodzenia Amazon notuje duże wzrosty liczby odwiedzin. Przejawem tego trendu był niezwykle udany Amazon Prime Day z lipca bieżącego roku, kiedy to w ciągu zaledwie 36 godzin klienci dokonali zakupów na kwotę niemal 4 miliardów dolarów. Z rosnącą popularnością Amazona wiąże się rosnąca zamożność jego właściciela. Majątek Jeffa Bezosa jest wyceniany obecnie na 150 miliardów dolarów i jest on najbogatszym człowiekiem na świecie. « powrót do artykułu
  11. Podczas International Joint Conference On Artificial Intelligence, która odbywa się właśnie w Sztokholmie, Future of Life Insitute zaprezentował dokument, którego sygnatariusze zobowiązali się do nieprowadzenia prac nad śmiercionośnymi autonomicznymi systemami bojowymi. Dokument podpisało ponad 160 organizacji i ponad 2400 osób. Wśród sygnatariuszy znajdziemy m.in. google'owskie DeepMind u jego założyciele czy Elona Muska. DeepMind to twórca algorytmów sztucznej inteligencji, które pokonały człowieka w go. My, podpisani poniżej, uznajemy, że decyzja o odebraniu życia człowiekowi nigdy nie powinna być podejmowana przez maszynę. Moralnym uzasadnieniem takiego stanowiska jest przekonanie, że decyzja o odebraniu życia nie może zostać podjęta przez maszynę, za którą to decyzję odpowiedzialni będą inni lub nikt. Argument praktyczny zaś brzmi: wprowadzenie do użytku śmiercionośnej, autonomicznej broni, która będzie wybierała cele bez interwencji człowieka, będzie miało destabilizujący efekt zarówno na państwa jak i na poszczególnych ludzi, czytamy w oświadczeniu. My, niżej podpisani, wzywamy rządy do stworzenia międzynarodowego prawa zabraniającego istnienia autonomicznych systemów bojowych. [...] nie będziemy nigdy uczestniczyli ani wspierali rozwoju, wytwarzania, handlu ani użycia śmiercionośnych autonomicznych systemów bojowych. Wzywamy firmy technologiczne, organizacje, liderów politycznych i społecznych oraz prawodawców i wszystkich innych ludzi do przyłączenia się do nas. Niezależnie od powyższego apelu 26 państw wezwało do nałożenia światowego zakazu tworzenia śmiercionośnych autonomicznych systemów bojowych. Państwa te to Algieria, Argentyna, Austria, Boliwia, Brazylia, Chile, Chiny, Kolumbia, Kostaryka, Kuba, Dżibuti, Ekwador, Egipt, Ghana, Gwatemala, Watykan, Irak, Meksyk, Nikaragua, Panama, Pakistan, Peru, Palestyna, Uganda, Wenezuela i Zimbabwe. Wśród instytucji podpisanych pod zobowiązaniem znajdziemy University College London, Europejskie Stowarzyszenie Sztucznej Inteligencji, portugalski Universidade NOVA czy Polskie Stowarzyszenie Sztucznej Inteligencji. Apel podpisało wielu naukowców zajmujących się robotami, informatyką i sztuczną inteligencją. Znajdziemy tam uczonych z Uniwersytetu w Montrealu, Uniwersytetu Nowej Południowej Walii, New York University, MIT, Uniwersytetu Kalifornijskiego, Cornell University i wielu innych szacownych instytycji naukowo-badawczych. « powrót do artykułu
  12. W sieci pojawiły się informacje, jakoby Google szykowało konkurencję dla konsol wideo, platformę Yeti. Redaktorzy serwisu Kotaku twierdzą, że platforma ta była omawiana za zamkniętymi drzwiami przed dwoma tygodniami podczas Electronic Entertainment Expo (E3). Yeti ma wykorzystywać chmurę obliczeniową i streaming danych, dzięki czemu użytkownik będzie mógł uruchomić gry na stosunkowo słabym sprzęcie. Większość obróbki graficznej wezmą bowiem na siebie rozsiane po świecie serwery. Problemem pozostaje tutaj prędkość łącza, jednak Google chce wesprzeć swoją platformę usługą Google Fiber. Warto jednak przypomnieć, że jest to usługa dostępna tylko w USA i w bardzo ograniczonej liczbie lokalizacji. Niewykluczone, że Yeti zostanie zintegrowana z usługami dostępnymi na YouTube'e, dzięki czemu gracze będą mogli np. włączyć podgląd pokazujący w jaki sposób przejść grę, bez przerywania samej gry. Pogłoski o pracach nad platformą do gier wzmacniają doniesienia o tym, że Google intensywnie zatrudnia byłych pracownikó EA czy Sony. Google nie jest pierwszą dużą firmą, która próbuje wejść na rynek gier wideo. Dużych inwestycji na tym rynku dokonuje od czterech lat Amazon, który jest już właścicielem trzech studiów deweloperskich, a mimo to nie pokazał jeszcze żadnego tytułu, który stałby się przebojem. Podczas tegorocznych E3 także Microsoft zasygnalizował, że może wykorzystać chmurę Azure do streamingu gier. Przed kilku laty przedstawiciele koncernu z Redmond mówili, że streaming gier to świetny pomysł, ale jego realizacja będzie nastręczała trudności. « powrót do artykułu
×
×
  • Create New...