Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów ' Internet' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 11 wyników

  1. Co to jest chromebook? Nazywamy tak laptopy pracujące pod kontrolą systemu operacyjnego ChromeOS. Jeśli zastanawiasz się, czy warto postawić na taki sprzęt, dziś przedstawimy go nieco bliżej. Chromebook, czyli co? Jaki to laptop? Nazwa chromebooka wzięła się od zainstalowanego na nim systemu operacyjnego. ChromeOS jest komputerowym odpowiednikiem lubianego, znanego ze smartfonów i tabletów systemu Android. Oprogramowanie jest niezwykle “lekkie”, co ma sporo zalet. Przede wszystkim działa bardzo szybko i potrzebuje niewiele zasobów. Dzięki temu sprawdzając, ile kosztuje chromebook, miło się zaskoczysz. Komputery tego typu są tańsze od “klasycznych” laptopów z systemem Windows lub macOS. System operacyjny w chromebooku potrzebuje mało zasobów. Pozwala to na bardzo płynną pracę nawet na nieco słabszym komputerze.  Niektórzy wykorzystują tę cechę i instalują ChromeOS na laptopach, gdzie Windows działa już dość słabo i się zacina. Śmiało możemy więc podsumować, że chromebook to niedrogi laptop, i tak jest jednak bardzo szybki. Duża część oprogramowania dostępnego na ChromeOS to produkty Google. Jeśli lubisz pracować w Dokumentach Google, używasz poczty Gmail i uważasz przeglądarkę Chrome za najlepszą - chromebook okaże się strzałem w dziesiątkę! Na ten system znajdziesz też jednak dużo innych aplikacji oraz gier. Chromebook to w pełni funkcjonalny laptop - bez trudu odtworzysz na nim filmy VOD, muzykę (np. ze Spotify), itp. Kiedy warto kupić chromebooka? Najczęściej użytkownikami chromebooków zostają osoby chcące kupić niedrogi komputer. Jako tani laptop przeglądarkowy do Internetu, chromebook sprawdzi się doskonale. Komputer posłuży z powodzeniem do nauki, przeglądania Internetu i do multimediów. Urządzenia z tej kategorii nadają się też do pracy biurowej. Jeśli większość czasu na komputerze spędzasz w przeglądarce internetowej, laptop na Chrome OS się sprawdzi. Sprawdź chromebooki dostępne w Komputronik. Laptopa z ChromeOS możemy wykorzystać również do gier. Ze Sklepu Google Play możesz pobrać wiele gier, w tym darmowych. Na takim komputerze nie uruchomimy jednak gier przewidzianych na system Windows lub macOS. Kupno taniego chromebooka nie oznacza jednak rezygnacji z najnowszych gier. Zagrasz nie wykorzystując nowoczesne usługi streamingu - granie w chmurze (np. Xbox Cloug Gaming i GeForce Now). Zalety chromebooków, jak i innych laptopów do Internetu Chromebooki to bardzo sprawne i niedrogie laptopy do Internetu. Korzystając z takiego urządzenia bez trudu uruchomisz oprogramowanie niemal każdego typu. Programy biurowe, odtwarzacze multimedialne, playery filmów VOD - te aplikacje działają bezbłędnie na szybkim systemie ChromeOS. Poza chromebookami także laptopy z systemem Windows sprawdzą się jako laptop przeglądarkowy. Tą nazwą nazywamy najczęściej niedrogie komputery. Laptop do Internetu nie pozwoli na uruchomienie nowych gier, jednak doskonale nada się do pracy, nauki i zabawy. Dla wielu osób takie urządzenie jest w zupełności wystarczające. « powrót do artykułu
  2. Pomimo trwającej od 2 tygodni rosyjskiej agresji, internet na Ukrainie ciągle działa. Zaskakiwać może, że Kreml, bardzo chętnie korzystający z cyberataków, dotychczas go nie wyłączył. Okazuje się, że na kilka miesięcy przed rosyjską napaścią Stany Zjednoczone zorganizowały tajną misję, w ramach której amerykańscy eksperci pomogli zabezpieczyć ukraińską cyberprzestrzeń. Od kilku lat USA pomagają Ukrainie zabezpieczyć sieci komputerowe. Na Ukrainie pracują żołnierze US Army's Cyber Command, niezależni specjaliści opłacani przez Waszyngton oraz eksperci z firm IT. Jednak pod koniec ubiegłego roku wysiłki te zostały wyraźnie zintensyfikowane i skupione na konkretnym zagrożeniu. Media donoszą, że w październiku i listopadzie liczba amerykańskich ekspertów pracujących na Ukrainie uległa nagłemu zwiększeniu. Mieli oni przygotować ukraińskie sieci na spodziewane ataki w obliczu coraz bardziej prawdopodobnej wojny. Misja najwyraźniej się powiodła, gdyż Ukraina ciągle ma łączność ze światem. Okazuje się na przykład, że agresor chciał sparaliżować ukraińskie koleje. Amerykanie znaleźli w sieci komputerowej ukraińskich kolei państwowych malware, które pozwalało napastnikom na jej wyłączenie poprzez skasowanie kluczowych plików. Niestety, podobne oprogramowanie zostało też zainstalowane – czego Amerykanie nie zauważyli – na komputerach straży granicznej i przeprowadzony cyberatak zwiększył chaos na granicy ukraińsko-rumuńskiej. Amerykanie nie ograniczyli się do działań informatycznych. Wiadomo, że we współpracy z ukraińskimi firmami odpowiadającymi za ukraińską sieć szkieletową, budowali dodatkową infrastrukturę, która miała zabezpieczyć najważniejsze potencjalne cele rosyjskich cyberataków. W ostatnim tygodniu lutego na sieć ukraińskiej policji i innych agend rządowych przeprowadzono silny atak DDoS. Wiadomo, że w ciągu kilku godzin Amerykanie skontaktowali się z Fortinetem, kalifornijską firmą sprzedającą wirtualne maszyny przeznaczone do przeciwdziałania takim atakom, zdobyli fundusze, w zaledwie 15 minut uzyskali zgodę Departamentu Handlu na transfer technologii i zainstalowali oprogramowanie Fortinetu na komputerach policji. Atak został odparty w ciągu ośmiu godzin od rozpoczęcia. Ataki hakerskie są często kierowane przeciwko komercyjnemu oprogramowaniu, a znaczną jego część produkują amerykańskie i europejskie firmy, które teraz poświęcają część swoich zasobów na pomoc Ukrainie. Wiadomo na przykład, że microsoftowe Threat Intelligence Center od wielu miesięcy chroni ukraińskie sieci przed rosyjskimi atakami. Jeszcze 24 lutego, na kilka godzin przez rosyjską napaścią, inżynierowie Microsoftu wykryli nowe szkodliwe oprogramowanie i dokonali jego inżynierii wstecznej. W ciągu trzech godzin udało im się stworzyć łatę i ostrzec ukraińskie władze przed licznymi atakami na wojskowe sieci. O sytuacji powiadomiono Biały Dom, który poprosił Microsoft, by ten podzielił się szczegółami z Polską innymi krajami europejskimi w obawie, że i ich sieci mogły zostać zarażone tym samym kodem. Menedżerowie Microsoftu przyznają, że jeszcze kilka lat temu takie działania zajęłyby całe tygodnie lub miesiące. Teraz wystarczają godziny. Amerykańska prasa donosi, że niektórzy z wysokich rangą menedżerów Microsoftu uzyskali szybko certyfikaty bezpieczeństwa i biorą teraz udział w spotkaniach National Security Agency (NSA) i Cyber Command. Eksperci obserwujący rozwój wydarzeń w ukraińskiej cyberprzestrzeni, są zdumieni tym, co widzą. Rosja zdobyła sobie reputację kraju, który potrafi skutecznie przeprowadzić silne niszczące cyberataki. Tymczasem od czasu napaści na Ukrainę nie obserwuje się wzmożenia tego typu aktywności. Nie wiadomo, co się stało. Być może Rosjanie próbowali, ale dzięki wzmocnieniu ukraińskiej infrastruktury napotkali na trudności. Na pewno próbowali przejąć facebookowe konta wysokich rangą ukraińskich oficerów i znanych osobistości, by rozpowszechniać fałszywe informacje. Na kontach tych pojawiły się filmy z rzekomo poddającymi się ukraińskimi oddziałami. Facebook zablokował zaatakowane konta i poinformował ich właścicieli. Nie można wykluczyć, że Kreml zlekceważył siłę ukraińskiej cyberprzestrzeni podobnie, jak zlekceważył ukraińską armię. « powrót do artykułu
  3. Naukowcy od dawna wiedzą, że duży koronalny wyrzut masy na Słońcu może poważnie uszkodzić sieci energetyczne, doprowadzając do braków prądu, wody, paliwa czy towarów w sklepach. Znacznie mniej uwagi przywiązują jednak do tego, jak takie wydarzenie wpłynie na internet. Jak się okazuje, skutki mogą być równie katastrofalne, a najsłabszym elementem systemu są podmorskie kable łączące kraje i kontynenty. Przed kilkunastu laty amerykańskie Narodowe Akademie Nauk przygotowały na zlecenie NASA raport dotyczący skutków wielkiego koronalnego wyrzutu masy, który zostałyby skierowany w stronę Ziemi. Takie wydarzenie mogłoby pozbawić ludzi wody, towarów w sklepach, transportu publicznego i prywatnego, uniemożliwić działanie szpitali i przedsiębiorstw, doprowadzić do wyłączenia elektrowni. Jak wówczas informowali autorzy raportu same tylko Stany Zjednoczone poniosłyby w ciągu pierwszego roku straty rzędu 2 bilionów dolarów. Przywrócenie stanu sprzed katastrofy potrwałoby 4-10 lat. Katastrofy naturalne zwykle są najbardziej odczuwane przez najbiedniejsze państwa. Wielki koronalny wyrzut masy jest zaś tym bardziej niebezpieczny, im bardziej rozwinięte państwo i im bardziej uzależnione jest od sieci energetycznej i – jak się okazuje – internetu. Koronalne wyrzuty masy to gigantyczne obłoki plazmy, które co jakiś czas są wyrzucane przez Słońce w przestrzeń kosmiczną. Mają one masę miliardów ton i posiadają silne pole magnetyczne, które może uszkadzać satelity, sieci energetyczne i zakłócać łączność radiową. Ludzkość nie ma zbyt wielu doświadczeń z tego typu wydarzeniami. W marcu 1989 roku w Kanadzie 6 milionów osób było przez 9 godzin pozbawionych prądu właśnie z powodu burzy na Słońcu. Jednak wiemy, że wyrzuty koronalne mogą być znacznie silniejsze. Najpotężniejsze znane nam tego typu zjawisko to wydarzenie Carringtona z 1859 roku. Kilkanaście godzin po tym, jak brytyjski astronom Richard Carrington zaobserwował dwa potężne rozbłyski na Słońcu, Ziemię zalało światło zórz polarnych. Przestały działać telegrafy, a Ameryce Północnej, gdzie była noc, ludzie mogli bez przeszkód czytać gazety, doszło do kilku pożarów drewnianych budynków telegrafów, igły kompasów poruszały się w sposób niekontrolowany, a zorze polarne widać było nawet w Kolumbii. Jednak wydarzenie to miało miejsce na długo przed rozwojem sieci energetycznych. Obecnie tak silny rozbłysk miałby katastrofalne skutki. Podczas zakończonej niedawno konferencji SIGCOMM 2021 profesor Sangeetha Abdu Jyothi z University of California Irvine, wystąpiła z odczytem Solar Superstorms. Planning for an Internet Apocalypse. Przedstawiła w nim wyniki swoich badań nad wpływem wielkiej chmury szybko poruszających się namagnetyzowanych cząstek słonecznych na światowy internet. Z badań wynika, że nawet gdyby stosunkowo szybko udało się przywrócić zasilanie, to problemów z internetem doświadczalibyśmy przez długi czas. Dobra wiadomość jest taka, że lokalna i regionalna infrastruktura internetowa nie powinna zbytnio ucierpieć. Światłowody same w sobie są odporne na tego typu wydarzenia. Znacznie gorzej byłoby z przesyłaniem danych w skali całego globu. Największe zagrożenie czyha na kable podmorskie. Przesyłają one dane przez tysiące kilometrów, a co 50–150 kilometrów są na nich zainstalowane wzmacniacze. I o ile sam podmorski kabel nie byłby narażony, to wielka burza słoneczna mogłaby uszkodzić te wzmacniacze. Gdy zaś doszłoby do uszkodzenia odpowiednich ich liczby, przesyłanie danych stałoby się niemożliwe. Co więcej, kable podmorskie są uziemiane co setki lub tysiące kilometrów, a to stwarza dodatkowe zagrożenie dla wzmacniaczy. Jakby jeszcze tego było mało, budowa geologiczna morskiego dna jest bardzo różna, i w niektórych miejscach wpływ burzy słonecznej na kable będzie silniejszy niż w innych. Zapomnijmy też o przesyłaniu danych za pomocą satelitów. Wielki rozbłysk na Słońcu może je uszkodzić. Obecnie nie mamy modeli pokazujących dokładnie, co mogłoby się stać. Lepiej rozumiemy wpływ koronalnego wyrzutu masy na sieci energetyczne. Jednak one znajdują się na lądach. Jeszcze trudniej jest przewidywać, co może stać się na dnie morskim, mówi Abdu Jyothi. Koronalne wyrzuty masy są bardziej niebezpieczne dla wyższych szerokości geograficznych, tych bliższych biegunom. Zatem Polska czy USA ucierpią bardziej niż położony w pobliżu równika Singapur. A Europa i Ameryka Północna będą miały większe problemy z internetem niż Azja. Internet zaprojektowano tak, by był odporny na zakłócenia. Gdy dojdzie do awarii w jednym miejscu, dane są automatycznie kierowane inną drogą, by omijać miejsce awarii. Ale jednoczesna awaria w kilku czy kilkunastu kluczowych punktach zdestabilizuje całą sieć. Wszystko zależy od tego, gdzie do niej dojdzie. Wspomniany tutaj Singapur jest hubem dla wielu azjatyckich podmorskich kabli telekomunikacyjnych. Jako, że położony jest blisko równika, istnieje tam mniejsze ryzyko awarii w razie wielkiej burzy słonecznej. Ponadto wiele kabli w regionie jest dość krótkich, rozciągają się z huba w różnych kierunkach. Tymczasem kable przekraczające Atlantyk czy Pacyfik są bardzo długie i położone na wyższych, bardziej narażonych na zakłócenia, szerokościach geograficznych. Niestety, podmorskie kable rzadko są zabezpieczane przed skutkami wielkich zaburzeń geomagnetycznych, takich jak burze słoneczne. Nie mamy doświadczenia z takimi wydarzeniami, a właściciele infrastruktury priorytetowo traktują cyberataki czy katastrofy naturalne mające swój początek na Ziemi i to przed nimi zabezpieczają swoje sieci. Abdu Jyothi zauważa jednak, że o ile wielkie koronalne wyrzuty masy są niezwykle rzadkie, a jeszcze rzadziej są one skierowane w stronę Ziemi, to stawka jest tutaj bardzo duża. Długotrwałe zaburzenie łączności w skali globalnej miałoby negatywny wpływ niemal na każdy dział gospodarki i niemal każdego człowieka na Ziemi. « powrót do artykułu
  4. Nie masz doświadczenia w kupowaniu kosmetyków online? Warto dać się przekonać do tej opcji i zamienić wizytę w tradycyjnej drogerii stacjonarnej na zakupy w jej internetowym odpowiedniku. Takie rozwiązanie ma naprawdę mnóstwo zalet, dlatego wiele kobiet nie wyobraża sobie już bez niego życia. Sprawdź, dlaczego zdecydowanie warto wybrać się na zakupy w drogerii online. Szeroki wybór produktów Największą zaletą internetowych sklepów z kosmetykami jest bezsprzecznie bogactwo asortymentu. Na stronie internetowej można umieścić znacznie więcej produktów, ponieważ zwyczajnie nie ma ograniczeń w powierzchni fizycznej. Jedyną przeszkodą mogą być ewentualnie rozmiary magazynów, które jednak i tak są nieporównywalnie większe niż przeciętny sklep. To właśnie dlatego Drogeria Pigment może pochwalić się szerokim wyborem marek czy też kilkudziesięcioma produktami praktycznie w każdej kategorii. Dokładne opisy kosmetyków W stacjonarnych drogeriach można liczyć jedynie na opisy produktów przygotowanych przez producentów i umieszczonych na opakowaniu. W wielu przypadkach podane są tylko podstawowe informacje lub nawet tylko skład, ponieważ na więcej nie pozwala np. wielkość kosmetyku. W internetowych drogeriach można natomiast często dowiedzieć się m.in. jakie działanie mają poszczególne składniki lub jakich efektów można spodziewać się przy regularnym i prawidłowym stosowaniu produktu. Oszczędność czasu Drogerie online mają ogromne grono fanek również dlatego, że pozwalają kobietom zaoszczędzić naprawdę mnóstwo czasu. Po pierwsze, odpada konieczność dojazdu do sklepu. Ponadto dzięki wyszukiwarce można bez problemu znaleźć poszukiwane kosmetyki. Z kolei dobrze uporządkowane kategorie, filtry i możliwość posortowania produktów np. według cen pozwalają na szybkie odnalezienie tylko kosmetyków, które spełniają wymagania klientki. Na dodatek w przeciwieństwie do stacjonarnych drogerii nie trzeba tracić czasu na stanie w kolejce. Atrakcyjne ceny i promocje Koszty prowadzenia drogerii  online są zazwyczaj znacznie niższe niż w przypadku stacjonarnych sklepów. To z kolei pozwala internetowym sprzedawcom na oferowanie lepszych cen i promocji. Ponadto w Drogerii Pigment można liczyć na bezpłatną dostawę przy zakupach powyżej 150 złotych. Na pewne bonusy mogą liczyć także klientki zapisane do newslettera i członkinie programu lojalnościowego. Wygodne zakupy na miarę potrzeb Zakupy w drogerii online można zrobić właściwie w dowolnym miejscu, jeśli tylko ma się dostęp do w miarę dobrego Internetu. Oznacza to, że w niezbędne kosmetyki można zaopatrzyć się bez wychodzenia z domu, podczas wakacji na egzotycznej plaży lub w autobusie w drodze do pracy. Ponadto internetowe sklepy są dostępne przez cały dzień, dlatego można je odwiedzić nawet późnym wieczorem lub w dzień, w którym stacjonarne drogerie są zamknięte. Dla wielu pań zaletą może być również to, że zakupy w drogerii mogą zrobić bez bezpośredniego kontaktu z innymi klientami lub obsługą sklepu. « powrót do artykułu
  5. W tym roku miłośnicy słynnego karnawału w Wenecji muszą się liczyć ze zmianą jego dotychczasowej formuły. W 2020 r. impreza została skrócona, w 2021 r. odbędzie się zaś wyłącznie w Sieci. Na witrynie wydarzenia jest ono reklamowane jako tradycyjne, emocjonalne, cyfrowe. Przeniesiony do Internetu karnawał odbędzie się w dniach 6-7 lutego i 11-16 lutego. Z powodu zmiany formuły nie będzie, oczywiście, Lotu Anioła, czyli zjazdu młodej wenecjanki na linach z dzwonnicy na placu św. Marka. Nie ma też mowy o balach w pałacach czy spektaklach pod gołym niebem. Po raz pierwszy nie będzie też masowej sprzedaży pamiątkowych masek. Jak podkreśla korespondentka PAP-u, Sylwia Wysocka, właściciele sklepów nie zamówili masek, bo nie wiedzieli, czy będą mogli pracować. W mieście od dłuższego czasu prawie nie ma turystów. Nadal obowiązuje zakaz podróży między regionami bez uzasadnionego powodu, co oznacza, że w Wenecji nie pojawiają się nawet Włosi z innych części państwa. Wcześniej wenecjanie narzekali na zjeżdżające na karnawał tłumy (ich liczba przekraczała możliwości miasta, paraliżując pracę komunikacji wodnej i przejazd wąskimi uliczkami), teraz jednak dojmująca cisza i pustki robią swoje. Organizatorzy tegorocznego Carnevale di Venezia przekonują, że odbiorca będzie się mógł nacieszyć czarem karnawału bez względu na miejsce zamieszkania. A wszystko to dzięki bogatemu programowi wirtualnych wydarzeń. Tegoroczny karnawał jest reklamowany jako eksplozja zabawy, improwizacji [...] i muzyki. Transmisja z renesansowego pałacu Ca' Vendramin Calergi będzie prowadzona na oficjalnych profilach w serwisach społecznościowych, a także w lokalnej stacji telewizyjnej Televenezia. Organizatorzy wspominają o 3 wirtualnych pokojach (Venice Carnival Virtual Rooms). W przypadku Kids Carnival zapowiadane są warsztaty, występy czy konkurs na najlepszą dziecięcą maskę. Uczestnicy w wieku nastoletnim (Teen Carnival) będą mogli wziąć udział w tutorialach, konkursach, a także spotkaniach z influencerami. Organizowany na zakończenie karnawału konkurs na najlepszą maskę także odbędzie się w Sieci (La Maschera più Bella); dodatkową atrakcją mają być m.in. wywiady. Już wkrótce rozpoczną się zapisy. « powrót do artykułu
  6. Facebook zbudował prototypowego robota, który porusza się po... liniach energetycznych. Bombyx – Jedwabnik – rozwija za sobą światłowód. Gdy dociera do słupa, przechodzi nad nim i kontynuuje swoją podróż. Robot służy do układania światłowodów wzdłuż istniejących napowietrznych linii średniego napięcia, a jego celem jest obniżenie kosztów budowy infrastruktury komunikacyjnej na całym świecie. Obecnie koszty budowy takiej infrastruktury są bardzo wysokie. Szczególnie, gdy pojawia się konieczność wykonania prac ziemnych. Stąd też pomysł, by wykorzystać istniejące linie energetyczne. Te bowiem dotarły już do wielu miejsc na świecie, więc dostawcy internetu mogliby z nich skorzystać i znacząco obniżyć koszty budowy infrastruktury. To zaś oznaczałoby obniżenie kosztów dla ich klientów. Facebook od dawna chce zwiększyć dostępność do internetu na całym świecie. Dlatego właśnie serwis społecznościowy zabrał się za opracowanie Bombyksa. Firma nie ma jednak zamiaru samodzielnie budować i sprzedawać takich robotów. Od przyszłego roku będzie udzielała licencji wszystkim chętnym przedsiębiorstwom, które będą chciały produkować takie urządzenia. Połowa ludzkości nie ma dostępu do internetu, mówi inżynier Karthik Yogeeswaran z Facebooka, członek grupy, która opracowała robota. Z tych 50% ludzi, którzy nie korzystają z internetu aż 80% mieszka na terenach, gdzie jest dostęp do telefonii komórkowej, jednak nie stać ich na smartfon i opłacenie abonamentu. Światłowód ma o wiele rzędów wielkości wyższą przepustowość niż jakakolwiek ina technologia. Pozwala na przesłanie większej ilości danych do większej liczby ludzi, dodaje Yogeeswaran. Brak dostępu do szybkich łączy internetowych nie jest wyłącznie problemem krajów ubogich. W USA agendy federalne i stanowe wydają miliardy dolarów na zwiększenie zasięgu i przepustowości sieci, a mimo to ciągle jest z tym kłopot. Budowa infrastruktury idzie powoli i jest bardzo kosztowna. Koszty wykonania prac ziemnych i ułożenia kabli mogą sięgnąć dziesiątków tysięcy dolarów za każdy kilometr. A jeśli nawet na jakimś odległym terenie już sieć powstanie, to koszty jej budowy, które trzeba uwzględnić w cenie oferowanych usług, mogą być tak duże, że wielu osób nie stać na korzystanie z nowo wybudowanej infrastruktury. Z oficjalnych danych wynika, że 18 milionów Amerykanów (5,6%) nie ma obecnie dostępu do szerokopasmowego internetu definiowanego jako łącze o przepustowości co najmniej 25/3 Mbit. Największy problem jest na wsiach, gdzie dostępu do takich łączy nie ma około 30% obywateli oraz 40% szkół i 60% instytucji opieki zdrowotnej znajdujących się poza dużymi miastami. Przed trzema laty specjaliści z Facebooka zaczęli zastanawiać się nad obniżeniem kosztów budowy infrastruktury światłowodowej. Yogeeswaran mówi, że pomysł wykorzystania linii średniego napięcia wpadł mu do głowy, gdy podróżował po afrykańskiej prowincji. Zauważył, że wiejskie tereny Ugandy są usiane liniami średniego napęcia. Inżynier wpadł więc na pomysł, by układać światłowody wzdłuż istniejących linii. Poszukując sposobów na zrealizowanie swojego pomysłu Yogeeswaran dowiedział się, że już w latach 80. ubiegłego wieku pojawiła się maszyna, która miała pomagać w układać światłowodów na liniach energetycznych. Nigdy nie odniosła  komercyjnego sukcesu. Częściowo dlatego, że była wybudowana za pomocą ówczesnej technologii. Korzystała z silników spalinowych i nie potrafiła omijać słupów. Musieli jej w tym pomagać ludzie. A to oznaczało konieczność wyłączenia prądu w całych liniach, mówi inżynier. Pomysł Facebooka polega na umieszczeniu na linii średniego napięcia lekkiego robota który owija światłowód wokół istniejącego kabla, samodzielnie się porusza i samodzielnie omija słupy. Zwykle przeciąganie kabli pomiędzy słupami wymaga pracy ciężkiego sprzętu i wielu osób. Dzięki Bombyxowi wystarczy 2-3 techników, pickup, kilka kilometrów światłowodu na szpuli i nieco innych narzędzi. Jako, że kable w liniach średniego napięcia są lżejsze i słabsze niż te w liniach wysokiego napięcia, robot musi być odpowiednio lekki, a w jego wnętrzu musi zmieścić się kabel, który jest cienki, ale na tyle wytrzymały, by przetrwał wiatry i duże wahania temperatur. Obecnie do napowietrznego układania stosuje się światłowody o średnicy 10–13 milimetrów, a te używane do owijania wokół istniejących kabli mają około 7 milimetrów średnicy. Tymczasem Facebook i jego partnerzy stworzyli napowietrzny światłowód o średnicy 4 milimetrów. Gdy już kabel powstał Facebook rozpoczął współpracę z firmą ULC Robotics. Jej wynikiem jest robot, który porusza się po liniach średniego napięcia i potrafi omijać izolatory oraz inne przeszkody na słupach bez pomocy człowieka. Bombyx pracuje na działającej linii, nie ma więc potrzeby wyłączania prądu. Jest również bardzo szybki. Ułożenie kilometra światłowodu zajmuje mu około 1,5 godziny. Zanim Facebook i jego partnerzy rozpoczną program pilotażowy, chcą jeszcze udoskonalić swojego robota. Chcą, by operowanie Bombyxem było na tyle łatwe, by robota nie musiał doglądać inżynier. Mają też zamiar opracować bezpieczne procedury korzystania z robota.   « powrót do artykułu
  7. W Europie skończyła się pula adresów IPv4. Dzisiaj o godzinie 15:35, 25 listopada 2019 roku przyznaliśmy ostatnie adresy IPv4. Tym samym pula adresów IPv4 uległa wyczerpaniu, oświadczyła RIPE NCC, organizacja zajmująca się zarządzaniem zasobami internetowymi dla Europy, Bliskiego Wschodu i części Azji. Wyczerpanie się puli IPv4 nie jest zaskoczeniem, przewidywano je od dawna. RIPE NCC informuje jednocześnie, że fakt wyczerpania się puli IPv4 nie oznacza, iż adresy takie nie będą w przyszłości przyznawane. Organizacja będzie bowiem zajmowała się odzyskiwaniem zwolnionych adresów. Można je pozyskać od firm, które przestały działać czy też od sieci, które zrezygnowały z używania części przyznanych adresów. Odzyskane numery IPv4 będą przyznawane członkom RIPE NCC w kolejności ich zapisywania się na listę oczekujących. Trafią one wyłącznie do tych, którzy wcześnie n ie otrzymali żadnych adresów IPv4 do RIPE NCC. Ocenia się, że każdego roku odzyskanych zostanie kilkaset tysięcy adresów. To kropla w morzu potrzeb. Adresy IPv4 to 32-bitowe numery wykorzystywane do identyfikowania urządzeń podłączonych do internetu. Na całym świecie jest zatem 232 (4,2 miliarda) takich adresów, jednak do sieci podłączonych jest tak wiele urządzeń, że zaczyna brakować numerów IPv4. W 2012 roku IANA (Internet Assigned Numbers Authority) przyznało RIPE NCC ostanią przysługującą tej organizacji pulę IPv4. Od tamtej pory były tylko kwestią czasu, kiedy pula się wyczerpie. Następcą IPv4 jest IPv6. Wykorzystuje on 128-bitowe numery, zatem liczba adresów wynosi tutaj 2128 (340 undecylionów czyli 340 miliardów miliardów miliardów miliardów). Problem jednak w tym, że pomimo powtarzanych od wielu lat ostrzeń, IPv6 został wdrożony w niewielkim stopniu. Jedynie 24% ruchu internetowego korzysta z nowego systemu, a w bieżącym roku odsetek ten spadł w porównaniu z rokiem ubiegłym. Bez powszechnego zaimplementowania IPv6 grozi nam sytuacja, w której rozwój internetu zostanie niepotrzebnie ograniczony, nie przez brak inżynierów, sprzętu czy inwestycji, ale przez brak unikatowych identyfikatorów sieciowych, ostrzega RIPE NCC. « powrót do artykułu
  8. Nowym sposobem na poznanie przyczyn spadku liczebności pszczół jest podłączenie ula do Internetu i stworzenie czegoś w rodzaju scyfryzowanej jego wersji. Tieto, szwedzka firma zajmująca się konsultacjami z zakresu oprogramowania komputerowego, umieściła czujniki w 2 ulach (w każdym z uli mieszka ok. 80 tys. pszczół). Pierwszego października jeden scyfryzowany ul trafił do HSB Living Lab w Göteborgu. Drugi, prototyp, znajduje się w Kalmarze, przy siedzibie firmy. Zamontowano w nim czujniki do pomiaru liczebności owadów, wilgotności, ciśnienia czy temperatury w ulu. Ule są podłączone do Internetu i wysyłają dane na serwer. Jak tłumaczą twórcy, oznacza to zdalny dostęp do nich w czasie rzeczywistym. Analizą zajmą się algorytmy sztucznej inteligencji. Projekt ma pomoc w zarządzaniu ulem, tworzeniu zdrowych kolonii czy zachowaniu bioróżnorodności w bezpośrednim otoczeniu. Mikael Ekström, który po godzinach sam zajmuje się pszczelarstwem, wyjaśnia, że dzięki technologii można lepiej monitorować liczebność pszczół, żywotność kolonii, a także ilość wytwarzanego miodu. To również świetny sposób na zilustrowanie korzyści związanych ze scyfryzowanym społeczeństwem oraz na pokazanie, jak cyfrowe rozwiązania mogą stworzyć lepsze warunki zarówno dla ludzi, jak i dla pszczół. Ekström ma nadzieję, że w przyszłości technologia pomoże w wykrywaniu wybuchów epidemii różnych pszczelich chorób. Na razie skala projektu jest niewielka, ale Tieto prowadzi już rozmowy ze Szwedzkim Krajowym Stowarzyszeniem Pszczelarzy. Wspólnie być może uda się ustalić, jak go rozszerzyć na cały kraj. Szybki rozwój technologii działa na naszą korzyść. « powrót do artykułu
  9. European XFEL i Narodowe Centrum Badań Jądrowych (NCBJ) w Otwocku-Świerku pod Warszawą zamierzają ustanowić pierwsze ultraszybkie połączenie komputerowe Niemiec i Polski. Celem przedsięwzięcia jest wykorzystanie Centrum Superkomputerowego CIŚ w NCBJ do przetwarzania i analizy danych generowanych w European XFEL. Dedykowane połączenie komputerowe pomiędzy Hamburgiem i NCBJ będzie zapewniało szybkość transferu 100 gigabitów na sekundę (Gbit/s). Z wyjątkiem szybszego połączenia z DESY, to połączenie będzie około 100 razy szybsze niż obecne typowe połączenie internetowe European XFEL z innymi instytutami badawczymi. Dzięki niemu transfer danych dla średniego eksperymentu w obiekcie zajmuje około miesiąca . Dla porównania, szybkie łącza internetowe dla gospodarstw domowych zazwyczaj zapewniają około 250 Mb/s przy pobieraniu danych. Nowe połączenie będzie co najmniej 400 razy szybsze. W projekcie instalacji nowego szybkiego połączenia dla przesyłu danych, wraz z European XFEL i NCBJ, wezmą również udział: Niemiecka Krajowa Sieć Badań i Edukacji (DFN), Centrum Superkomputerowo-Sieciowe w Instytucie Chemii Bioorganicznej w Poznaniu (PCSS), Naukowa i Akademicka Sieć Komputerowa (NASK) oraz Deutsches Elektronen-Synchrotron (DESY). Pod koniec maja tego roku partnerzy podpisali protokół ustaleń, który posłuży jako podstawa i punkt wyjścia do ustanowienia nowego szybkiego połączenia. Można je w dużej mierze zbudować na istniejącej infrastrukturze technicznej, ale trzeba będzie dodać pewne szczególne elementy. Na przykład połączenie między niemieckimi i polskimi sieciami badawczymi będzie możliwe dzięki Uniwersytetowi Europejskiemu Viadrina we Frankfurcie nad Odrą i sąsiedniemu polskiemu miastu Słubice. Połączenie z NCBJ zapewni dodatkowe zasoby uzupełniające obecne zlokalizowane w Centrum Obliczeniowym DESY, gdzie wszystkie dane eksperymentalne z europejskiego XFEL były dotychczas analizowane i gdzie większość przetwarzania danych będzie nadal wykonywana. Dzięki laserowi rentgenowskiemu dostarczającemu do 27 000 impulsów na sekundę, najszybsze detektory urządzenia umożliwiają przechwytywanie do 8000 obrazów w wysokiej rozdzielczości na sekundę. W połączeniu z innymi danymi z lasera rentgenowskiego i jego instrumentów badawczych uzyskuje się ogromny strumień danych, wymagający specjalnego zarządzania i analizy w celu zapewnienia prawidłowego uzyskiwania informacji naukowych. Strumień danych może osiągnąć nawet wielkość 1 petabajta na tydzień w szczytowym czasie działania użytkownika, co odpowiada milionowi gigabajtów (GB). Analiza tych danych stanowi podstawę do określenia trójwymiarowej struktury molekuł, badania niezwykle szybkich procesów za pomocą tak zwanych filmów molekularnych oraz badania nowych i ultraszybkich zjawisk w badaniach materiałowych. Robert Feidenhans’l, dyrektor zarządzający European XFEL, powiedział: Współpraca z NCBJ w dziedzinie analizy danych jest przełomowym krokiem w kierunku coraz ściślejszego powiązania badań w Europie. Dodatkowe zasoby obliczeniowe nie tylko zwiększą wydajność, ale również zapewnią większą elastyczność operacyjną, co jest bardzo mile widziane. Musimy zwiększyć wymaganą wydajność obliczeniową dla naszych eksperymentów i cieszymy się, że wspólnie z naszymi partnerami NCBJ i DESY znaleźliśmy znakomite rozwiązanie. European XFEL to europejski laser na swobodnych elektronach zbudowany międzynarodowym wysiłkiem w Hamburgu w Niemczech. Narodowe Centrum Badań Jądrowych jest polskim współudziałowcem tej inwestycji. XFEL rozpoczął badania we wrześniu 2017 r. W liczącym ponad 3 km długości tunelu elektrony najpierw rozpędzane są do prędkości bliskiej prędkości światła, a następnie przepuszczane są przez specjalnie ukształtowane pole magnetyczne, co zmusza je do emisji promieniowania elektromagnetycznego o bardzo dobrze kontrolowanych parametrach. Wytworzone w ten sposób wiązki rentgenowskie docierające do hali eksperymentalnej w ultrakrótkich impulsach mogą być wykorzystywane przez fizyków, chemików, biologów i inżynierów do badania materii i procesów w niej zachodzących. PolFEL to polski laser na swobodnych elektronach budowany w NCBJ w Świerku na bazie doświadczeń zdobytych przy budowie lasera XFEL w Hamburgu. PolFEL będzie jedynym tego typu urządzeniem w Europie północno-wschodniej. Ze względu na swoją konstrukcję, w tym nadprzewodzące źródło elektronów opracowane przez naukowców ze Świerka, laser będzie oferował możliwości wykonywania badań dotąd niedostępnych na żadnym urządzeniu na świecie. Narodowe Centrum Badań Jądrowych jest instytutem działającym na podstawie przepisów ustawy o instytutach badawczych. Ministrem nadzorującym instytut jest minister energii. NCBJ jest największym instytutem badawczym w Polsce zatrudniającym ponad 1100 pracowników, w tym ponad 200 osób ze stopniem naukowym doktora, z czego ponad 60 osób ma status samodzielnych pracowników naukowych. W NCBJ pracuje ponad 200 osób z tytułem zawodowym inżyniera. Główna siedziba instytutu znajduje się w Otwocku w dzielnicy Świerk, gdzie zlokalizowany jest ośrodek jądrowy należący do NCBJ, w tym reaktor badawczy Maria. Instytut prowadzi badania naukowe i prace rozwojowe oraz wdrożeniowe w obszarze powiązanym z szeroko rozumianą fizyką subatomową, fizyką promieniowania, fizyką i technologiami jądrowymi oraz plazmowymi, fizyką materiałową, urządzeniami do akceleracji cząstek oraz detektorami, zastosowaniem tych urządzeń w medycynie i gospodarce oraz badaniami i produkcją radiofarmaceutyków. Instytut posiada najwyższą kategorię A+ przyznaną w wyniku oceny polskich jednostek naukowych dokonanej w 2017 r. Pozycję naukową instytutu wyznacza także liczba publikacji (ok. 500 rocznie) i liczba cytowań mierzona indeksem Hirscha (ponad 140). Są to wartości lokujące NCBJ w pierwszej piątce wśród wszystkich jednostek badawczych i akademickich w Polsce prowadzących porównywalne badania. « powrót do artykułu
  10. SpaceX wystrzeliła pierwsze własne satelity komunikacyjne. Start Falcona 9 z 60 satelitami komunikacyjnymi miał odbyć się 17 maja, jednak był ciągle przekładany ze względu na niekorzystne warunki pogodowe i konieczność aktualizacji oprogramowania. W końcu się udało. Godzinę po starcie, na wysokości 450 kilometrów, z rakiety zaczęto uwalniać satelity. Samodzielnie zajmą one orbitę na wysokości 550 kilometrów. Wspomnianych 60 satelitów to część konstelacji Starlink, która ma zapewnić łączność internetową na całym świecie. Starlink zostanie uruchomiona, gdy na orbicie znajdzie się 800 satelitów. SpaceX to niewielka firma, a margines zysku z jej obecnej działalności nie jest duży. Tymczasem przedsiębiorstwo ma wielkie ambicje, chce wysyłać ludzi w przestrzeń kosmiczną. Aby je zrealizować musi znaleźć dodatkowe źródła przychodu. Jednym z nich może być zapewnienie łączy internetowych w każdym miejscu na świecie. SpaceX wchodzi na rynek, na którym działa już konkurencja. Wiele firm oferuje już internet satelitarny. Ich urządzenia korzystają z orbity geostacjonarnej (GEO). Zaletą tego rozwiązania jest fakt, że satelita okrąża Ziemię w takim samym czasie, w jakim trwa obrót Ziemi dookoła własnej osi. Zatem satelita ciągle wisi nad tym samym punktem i zapewnia łączność na obszarze objętym swoim zasięgiem. Wadą umieszczenia satelity na GEO jest fakt, iż orbita ta znajduje się na wysokości około 36 000 kilometrów nad Ziemią. To zaś oznacza, że do praktycznej komunikacji dwustronnej sygnał musi przebyć ponad 70 000 kilometrów. Mogą więc pojawić się opóźnienia, które mogą być widoczne tam, gdzie potrzebna jest szybsza wymiana danych, jak np. podczas online'owych gier wideo. Ponadto obecnie satelity umieszczone na GEO nie pokrywają swoim sygnałem całego obszaru planety. Niska orbita okołoziemska znajduje się na wysokości od 200 do 2000 kilometrów. Sygnał ma więc do przebycia znacznie krótszą drogę i w praktyce opóźnienia nie powinny być większe, niż przy korzystaniu z sygnału nadawanego z Ziemi. Jednak, jako że satelity na LEO poruszają się znacznie szybciej względem Ziemi, to obszar, który jest pokryty sygnałem z danego satelity, ciągle się przesuwa. Zatem jeśli chcemy zapewnić nieprzerwaną łączność na danym obszarze, musimy mieć wiele satelitów, których ruch jest zsynchronizowany tak, by gdy jeden satelita opuszcza dany obszar, kolejny natychmiast wlatywał w jego miejsce. Mark Juncosa, wiceprezes SpaceX odpowiedzialny za kwestie inżynieryjne, mówi, że po 12 dodatkowych startach rakiet z satelitami Starlink jego firma obejmie swoimi usługami całe USA, po 24 startach będzie mogła zapewnić łączność na najgęściej zaludnionych obszarach, a po 30 startach ze Starlinka będzie można korzystać na całym świecie. Starlink to niezwykle ważne przedsięwzięcie w planach SpaceX. Jak już wspomnieliśmy, firma potrzebuje pieniędzy na realizację swoich podstawowych planów związanych z wysyłaniem ludzi w przestrzeń kosmiczną. Jak przyznał Elon Musk, przychody biznesu związanego z wynoszeniem ludzi i towarów na zlecenie mogą w przyszłości sięgnąć 3 miliardów dolarów rocznie, tymczasem potencjalne przychody z dostarczania internetu mogą być nawet 10-krotnie wyższe. Postrzegamy to jako sposób na wygenerowanie środków, które będziemy mogli użyć na tworzenie coraz bardziej zaawansowanych rakiet i statków kosmicznych. To kluczowy element planu budowy stacji na Księżycu i samowystarczalnego miasta na Marsie, mówi Musk. Pozostaje jeszcze jeden ważny problem. Obecnie na LEO znajduje się około 2000 działających satelitów. Jeśli wszystko pójdzie zgodnie z planem, większość satelitów krążących wokół Ziemi będzie należała do SpaceX. To duża rzecz, przyznaje Musk. Możemy też przypuszczać, że konkurencja nie będzie zasypiała gruszek w popiele. W najbliższych latach wokół naszej planety może więc krążyć kilkakrotnie więcej satelitów niż obecnie. Tymczasem już obecnie kosmiczne śmieci są coraz większym problemem. Coraz więcej satelitów oznacza z jednej strony, że te, które się zepsują lub zakończy się czas ich pracy, staną się kolejnymi odpadkami, z drugiej strony im ich więcej, tym większe ryzyko kolizji z już istniejącymi śmieciami, a wskutek każdej z takich kolizji pojawia się olbrzymia liczba szczątków i znowu wzrasta ryzyko kolizji z działającymi satelitami. Musk mówi, że każdy z satelitów Starlink zostanie wyposażony w dane o orbitach wszystkich znanych odpadków kosmicznych i będzie mógł ich unikać. Ponadto zapewnia, że nieczynne satelity będą z czasem spadały na Ziemię i w 95% będą płonęły w atmosferze. To jednak oznacza, że z każdego satelity na powierzchnię spadnie kilkanaście kilogramów odłamków. Zgodnie z zapewnieniem SpaceX mają być one kierowane na Ocean Spokojny. Ryzyko, że ktoś na Ziemi zostanie zraniony lub zabity przez szczątki spadającego satelity jest minimalne. Jednak biorąc pod uwagę fakt, że szybko rośnie zarówno liczba satelitów jak i liczba ludzi, można się spodziewać, że w najbliższych latach przeczytamy doniesienia o osobach trafionych kosmicznymi śmieciami. « powrót do artykułu
  11. Jutro o godzinie 4:30 czasu polskiego firma SpaceX ma zamiar wystrzelić własne satelity komunikacyjne z rodziny Starlink. Przedsiębiorstwo Elona Muska chce tym samym wejść na nowy dla siebie rynek dostawcy internetu. SpaceX to niewielka firma, a margines zysku z jej obecnej działalności nie jest duży. Tymczasem przedsiębiorstwo ma wielkie ambicje, chce wysyłać ludzi w przestrzeń kosmiczną. Aby je zrealizować musi znaleźć dodatkowe źródła przychodu. Jednym z nich może być zapewnienie łączy internetowych w każdym miejscu na świecie. Start rakiety Falcon 9 z pierwszymi elementami konstelacji Starlink miał odbyć się w nocy ze środy na czwartek czasu polskiego, jednak został przełożony z powodu silnych wiatrów wiejących w górnych partiach atmosfery. Za kilka godzin SpaceX ponownie spróbuje rozpocząć budowę Starlinka. SpaceX zwykle wynosi ładunki na zlecenie NASA i firm prywatnych. Tym razem na orbitę mają trafić jej własne satelity, a Falcon ma wynieść ich od razu 60. Z czasem będą wysyłane kolejne, a ostatecznym celem jest zapewnienie sygnału w niemal każdym miejscu na Ziemi. Elon Musk powiedział, że łączna masa satelitów, wynosząca blisko 14 ton, jest najcięższym ładunkiem, jaki kiedykolwiek wynosiła rakieta Falcon 9. Dodał, że satelity Starlink będą przekazywały sobie dane korzystając z pośrednictwa stacji naziemnych. Brak im jednak laserów, które umożliwiłyby bezpośrednią łączność pomiędzy satelitami. Lasery mają znaleźć się w przyszłych wersjach Starlink. Jeśli wszystko pójdzie zgodnie z planem to satelity opuszczą rakietę godzinę po starcie i trafią na niską orbitę okołoziemską (LEO). Dwie lub trzy godziny później zostaną włączone. Elon Musk jest tym razem ostrożny i studzi zapał osób, które nie mogą się doczekać, by skorzystać z nowej oferty SpaceX. Zastosowaliśmy tam dużo nowych technologii. Możliwe, że niektóre z satelitów nie będą działały. Tak naprawdę jest też możliwe, choć prawdopodobieństwo jest niewielkie, że wszystkie satelity odmówią posłuszeństwa, stwierdził Musk. SpaceX wchodzi na rynek, na którym działa już konkurencja. Wiele firm oferuje już internet satelitarny. Ich urządzenia korzystają z orbity geostacjonarnej (GEO). Zaletą tego rozwiązania jest fakt, że satelita okrąża Ziemię w takim samym czasie, w jakim trwa obrót Ziemi dookoła własnej osi. Zatem satelita ciągle wisi nad tym samym punktem i zapewnia łączność na obszarze objętym swoim zasięgiem. Wadą umieszczenia satelity na GEO jest fakt, iż orbita ta znajduje się na wysokości około 36 000 kilometrów nad Ziemią. To zaś oznacza, że do praktycznej komunikacji dwustronnej sygnał musi przebyć ponad 70 000 kilometrów. Mogą więc pojawić się opóźnienia, które mogą być widoczne tam, gdzie potrzebna jest szybsza wymiana danych, jak np. podczas online'owych gier wideo. Ponadto obecnie satelity umieszczone na GEO nie pokrywają swoim sygnałem całego obszaru planety. Niska orbita okołoziemska znajduje się na wysokości od 200 do 2000 kilometrów. Sygnał ma więc do przebycia znacznie krótszą drogę i w praktyce opóźnienia nie powinny być większe, niż przy korzystaniu z sygnału nadawanego z Ziemi. Jednak, jako że satelity na LEO poruszają się znacznie szybciej względem Ziemi, to obszar, który jest pokryty sygnałem z danego satelity, ciągle się przesuwa. Zatem jeśli chcemy zapewnić nieprzerwaną łączność na danym obszarze, musimy mieć wiele satelitów, których ruch jest zsynchronizowany tak, by gdy jeden satelita opuszcza dany obszar, kolejny natychmiast wlatywał w jego miejsce. Mark Juncosa, wiceprezes SpaceX odpowiedzialny za kwestie inżynieryjne, mówi, że po 12 dodatkowych startach rakiet z satelitami Starlink jego firma obejmie swoimi usługami całe USA, po 24 startach będzie mogła zapewnić łączność na najgęściej zaludnionych obszarach, a po 30 startach ze Starlinka będzie można korzystać na całym świecie. Starlink to niezwykle ważne przedsięwzięcie w planach SpaceX. Jak już wspomnieliśmy, firma potrzebuje pieniędzy na realizację swoich podstawowych planów związanych z wysyłaniem ludzi w przestrzeń kosmiczną. Jak przyznał Elon Musk, przychody biznesu związanego z wynoszeniem ludzi i towarów na zlecenie mogą w przyszłości sięgnąć 3 miliardów dolarów rocznie, tymczasem potencjalne przychody z dostarczania internetu mogą być nawet 10-krotnie wyższe. Postrzegamy to jako sposób na wygenerowanie środków, które będziemy mogli użyć na tworzenie coraz bardziej zaawansowanych rakiet i statków kosmicznych. To kluczowy element planu budowy stacji na Księżycu i samowystarczalnego miasta na Marsie, mówi Musk. Pozostaje jeszcze jeden ważny problem. Obecnie na LEO znajduje się około 2000 działających satelitów. Jeśli wszystko pójdzie zgodnie z planem, większość satelitów krążących wokół Ziemi będzie należała do SpaceX. To duża rzecz, przyznaje Musk. Możemy też przypuszczać, że konkurencja nie będzie zasypiała gruszek w popiele. W najbliższych latach wokół naszej planety może więc krążyć kilkakrotnie więcej satelitów niż obecnie. Tymczasem już obecnie kosmiczne śmieci są coraz większym problemem. Coraz więcej satelitów oznacza z jednej strony, że te, które się zepsują lub zakończy się czas ich pracy, staną się kolejnymi odpadkami, z drugiej strony im ich więcej, tym większe ryzyko kolizji z już istniejącymi śmieciami, a wskutek każdej z takich kolizji pojawia się olbrzymia liczba szczątków i znowu wzrasta ryzyko kolizji z działającymi satelitami. Musk mówi, że każdy z satelitów Starlink zostanie wyposażony w dane o orbitach wszystkich znanych odpadków kosmicznych i będzie mógł ich unikać. Ponadto zapewnia, że nieczynne satelity będą z czasem spadały na Ziemię i w 95% będą płonęły w atmosferze. To jednak oznacza, że z każdego satelity na powierzchnię spadnie kilkanaście kilogramów odłamków. Zgodnie z zapewnieniem SpaceX mają być one kierowane na Ocean Spokojny. Ryzyko, że ktoś na Ziemi zostanie zraniony lub zabity przez szczątki spadającego satelity jest minimalne. Jednak biorąc pod uwagę fakt, że szybko rośnie zarówno liczba satelitów jak i liczba ludzi, można się spodziewać, że w najbliższych latach przeczytamy doniesienia o osobach trafionych kosmicznymi śmieciami. Aktualizacja (17.05.2019): start został przełożony do przyszłego tygodnia. « powrót do artykułu
×
×
  • Dodaj nową pozycję...