Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Japońska Agencja Eksploracji Kosmosu (JAXA) poinformowała o zestawieniu rekordowo szybkiego łącza satelitarnego. Podczas testów niedawno wystrzelonego satelity telekomunikacyjnego udało się ustanowić połączenie pozwalające na przesył danych z prędkości 1,2 gigabita na sekundę w każdą ze stron.

Informacje pomiędzy Ziemią a satelitą Kizuna były wymieniane dwoma kanałami o przepustowości 622 megabitów na sekundę każdy. Kizuna został wystrzelony 23 lutego, a jego zadaniem jest zapewnienie połączenia z Internetem w miejscach trudno dostępnych. Będzie też wykorzystywany awaryjnie do zapewnienia łączności podczas nawiedzających Azję katastrof naturalnych.

Jedną z największych zalet Kizuny jest wykorzystanie na pokładzie satelity specjalnego przełącznika ATM (Asynchronous Transfer Mode), który znakomicie przyspiesza wymianę danych. Zwykle, by skorzystać z internetowej łączności satelitarnej, sygnał musi przejść z punktu, z którego został wysłany do specjalnej stacji nadawczej, tam jest demodulowany, ustawiany na odpowiedniego satelitę, remodulowany i wysyłany do satelity. Kizuna potrafi wszystkie te czynności wykonać samodzielnie.

Testy Kizuny przeprowadzono już w marcu i kwietniu. Wówczas dzięki antenie o średnicy 45 centymetrów osiągnięto transfery rzędu 1,5 Mbit/s od użytkownika i 155 Mb/s do użytkownika. Z kolei antena o średnicy 1,2 metra pozwalała na transfer 155 Mb/s w obie strony. Wówczas była to rekordowa prędkość uzyskana za pomocą równie małej anteny.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
dzięki antenie o średnicy 45 centymetrów osiągnięto transfery rzędu 1,5 Mbit/s od użytkownika i 155 Mb/s do użytkownika. Z kolei antena o średnicy 1,2 metra pozwalała na transfer 155 Mb/s w obie strony.

 

A co ma średnica anteny do prędkości transmisji danych (zakładając że jest ta sama częstotliwość)?? 8)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Podejrzewam że większa antena -> większa czułość -> mniej błędnych pakietów danych -> większy efektywny transfer danych przy tych samych parametrach łącza

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

hehe ;)

czasza anteny to klucz do sukcesu ;):)

Czasza im jest większa tym lepiej ogniskuje sygnał kierowany do konwertera (sygnał nigdy nie "idzie" bezpośrednio do konwertera!) a co za tym idzie lepiej tłumione są zakłucenia powodowane przez drzewa, interferencje, czy choćby zabudowe terenu.

Dlatego też w miastach (lub ostatnio też do odbioru HDTV) rekomenduje się większe talerze antenowe.

Pozdrawiam ;D :-*

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

a zdjęcia i filmiki z księżyca i marsa nadal będą niewyraźne jakby nie brały rutinoskorbinu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
dzięki antenie o średnicy 45 centymetrów osiągnięto transfery rzędu 1,5 Mbit/s od użytkownika i 155 Mb/s do użytkownika. Z kolei antena o średnicy 1,2 metra pozwalała na transfer 155 Mb/s w obie strony.

 

A co ma średnica anteny do prędkości transmisji danych (zakładając że jest ta sama częstotliwość)?? 8)

 

mysle ze chodzi o dlugosc ale ona musi byc rowna dlugosci fali ktora odbiera czy tylko wielkrotnoscia ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Szerokie rozpowszechnienie się internetu i technologii komunikacyjnych przyciąga ludzi do centrów miast. Zachodzi więc zjawisko odwrotne, niż przewidywano u zarania internetu i ery informacyjnej, informują naukowcy z Uniwersytetu w Bristolu.
      Pomimo tego, że internet pozwala nam na niezwykle łatwy dostęp do wszelkich informacji i umożliwia łatwe i szybkie nawiązanie kontaktu z osobami z drugiego końca świata, jego rozwój nie doprowadził do odpływu ludności z miast. Wręcz przeciwnie, specjaliści zauważyli odwrotne zjawisko. Coraz większe rozpowszechnienie się technologii informacyjnych prowadzi zwiększenia koncentracji ludzi w miastach.
      Nie od dzisiaj wiemy, że np. przedsiębiorstwa działające na uzupełniających się polach, mają tendencje do grupowania się na tym samym obszarze, gdyż zmniejsza to koszty działalności. Technologie informacyjne miały to zmienić.
      Doktor Emmanouil Tranos z Univeristy of Bristol i Yannis M. Ioannides z Tufts Univeristy przeanalizowali skutki zachodzących w czasie zmian dostępności i prędkości łączy internetowych oraz użytkowania internetu na obszary miejskie w USA i Wielkiej Brytanii. Geografowie, planiści i ekonomiści miejscy, którzy na początku epoki internetu rozważali jego wpływ na miasta, dochodzili czasem do dziwacznych wniosków. Niektórzy wróżyli rozwój „tele-wiosek”, krajów bez granic, a nawet mówiono o końcu miasta.
      Dzisiaj, 25 lat po komercjalizacji internetu, wiemy, że przewidywania te wyolbrzymiały wpływ internetu i technologii informacyjnych w zakresie kontaktów i zmniejszenia kosztów związanych z odległością. Wciąż rosnąca urbanizacja pokazuje coś wręcz przeciwnego. Widzimy, że istnieje komplementarność pomiędzy internetem a aglomeracjami. Nowoczesne technologie informacyjne nie wypchnęły ludzi z miast, a ich do nich przyciągają.
      Artykuł Ubiquitous digital technologies and spatial structure; an update został opublikowany na łamach PLOS One.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Gdy satelita się psuje, staje się bezużytecznym śmieciem krążącym po orbicie, który zagraża innym satelitom. W końcu spada w kierunku Ziemi i płonie w atmosferze.
      Profesor Ou Ma i jego zespół z University of Cincinnati pracują nad siecią robotów, które wspólnie będą naprawiały i tankowały satelity. Ma mówi, że milion rzeczy może pójść nie tak po wystrzeleniu satelity. A my nie jesteśmy w stanie zaradzić większości z nich. zatem kosztujące miliony dolarów urządzenia bezużytecznie latają nad naszymi głowami, gdyż uległy awarii lub skończyło im się paliwo.
      Najbardziej znaną kosmiczną awarią była ta, która dotknęła Teleskop Kosmiczny Hubble'a. Jednak teleskop był projektowany z myślą o serwisowaniu, więc wysłani w promie kosmicznym astronauci dokonali odpowiednich napraw. Jednak wysyłanie ludzi za każdym razem, gdy zepsuje się satelita, jest niezwykle kosztowne. Dlatego też profesor Ma, który pracował m.in. przy projektowanie robotycznego ramienia dla promów kosmicznych i Międzynarodowej Stacji Kosmicznej, chce stworzyć satelity, które będą dokowały do innych satelitów i je naprawiały.
      Problemem nie są zresztą tylko awarie. Większość satelitów przestaje działać, bo skończyło im się paliwo. Odsyłamy na emeryturę sprawne satelity, bo wyczerpało im się paliwo, mówi John Lymer z firmy Maxar. NASA chce w 2022 roku wystrzelić na orbitę satelitę zdolnego do tankowania innych satelitów należących do amerykańskiego rządu. Projekt Restore-L ma być testem dla pomysłu automatycznej naprawy satelitów na orbicie.
      W laboratorium Ma trwają intensywne prace nad systemami nawigacji satelitów, które miałyby naprawiać i tankować inne satelity. To niezwykle ważna kwestia, gdyż zderzenie w kosmosie spowoduje, że satelity zaczną poruszać się w sposób niekontrolowany. Do tego może bardzo łatwo dojść, gdyż nic nie hamuje satelitów. Gdy satelita zacznie się niekontrolowanie obracać, może tak poruszać się bez końca, mówi Ma.
      Ma i jego zespół wykorzystują zaawansowane narzędzia do symulacji zachowania satelitów na orbicie. Przechwycenie czegoś w przestrzeni kosmicznej jestnaprawdę trudne. A złapanie czegoś, co się obraca jest jeszcze trudniejsze. Trzeba bardzo ostrożnie przewidywać ruch i wszystko precyzyjnie kontrolować, by uspokoić takiego satelitę i go delikatnie przechwycić, mów Ma.
      Z jednej więc strony grupa Ma prowadzi badania nad samym przechwytywaniem satelitów, w tym również takich, które poruszają się w sposób niekontrolowany, z drugiej zaś, rozwija technologie ich naprawy. W laboratorium działa kilka robotycznych ramion, z których każde jest wyposażone w siedem stawów, co daje im pełną swobodę ruchu. Ma chciałby, by w przyszłości powstały satelity serwisowe zdolne do wykonywania różnego rodzaju prac serwisowych. Dodatkowo roboty takie powinny mieć możliwość działania w grupie i wspólnego wykonywania najbardziej skomplikowanych zadań.
      W ramach swoich ostatnich prac naukowcy dali robotom zadanie przeciągnięcie przedmiotu na wskazane miejsce. Każdy z robotów kontrolował jeden sznurek, do którego umocowany był przedmiot, zatem jego przeciągnięcie wymagało współpracy. Dzięki algorytmom logiki rozmytej udało się przeciągnąć przedmiot na konkretne miejsce zarówno za pomocą trzech jak i pięciu robotów. Przy okazji okazało się, że grupa pięciu robotów jest w stanie wykonać zadanie nawet, gdy jeden z nich ulegnie awarii. To bardzo ważne w dużych grupach robotów, gdy możliwości jednego z nich okażą się mniejsze niż innych, stwierdzili uczeni.
      Profesor Ma zauważa, że przemysł kosmiczny jest coraz bardziej zainteresowany serwisowaniem satelitów. Przyznaje, że obecnie technologia jest zbyt mało zaawansowana, jednak w ciągu 5–10 lat będzie ona na tyle dojrzała, że z pewnością powstaną przedsiębiorstwa, które zajmą się świadczeniem takich usług. My nie pracujemy nad całą misją. Tworzymy jedynie technologię dla takich działań. Gdy już będzie gotowa NASA lub jakaś prywatna firma się nią zainteresują i na jej podstawie zbudują satelity, mówi Ma.
      Podobnego zdania jest Gordon Roesler, były dyrektor w DARPA (U.S. Defense Advanced Research Projects Agency). W żadnej innej dziedzinie nie robi się tak, że buduje się urządzenie warte pół miliarda czy miliard dolarów i nigdy się go nie dogląda, mówi.
      Specjaliści dodają, że już w najbliższej przyszłości właściciele satelitów będą musieli pomyśleć o umożliwieniu ich serwisowania. Obecnie wiele urządzeń jest tak delikatnych, że nie można nawet myśleć o ich przechwyceniu bez ryzyka uszkodzenia. Poza wzmocnieniem satelitów potrzebny będzie też jakiś rodzaj drzwi serwisowych, dających dostęp do ich wnętrza.
      Czasu na takie działania jest coraz mniej. Z każdym wystrzelonym i każdym nieczynnym satelitą niska orbita Ziemi jest coraz bliżej efektu Kesslera. To opracowana przez Donalda Kesslera teoria mówiąca, że z czasem zderzenia satelitów między sobą usieją orbitę tak olbrzymią liczbą szczątków, iż zagrozi to kolejnym satelitom. Musimy pamiętać, że zderzenie satelitów powoduje powstanie olbrzymiej liczby odpadków poruszających się z prędkościami przekraczającymi 20 000 km/h.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Miłośnicy selfie mają kolejny sposób na pokazanie się znajomym. Tym razem mogą użyć przy tym najdłuższego kija do selfie i wykonać swoje zdjęcie... z kosmosu. Pomoże im w tym witryna Spelfie.com i krążące na orbicie satelity.
      Pomysł na nowatorskie selfie jest niezwykle interesujący, a użyte do tego narzędzia zostały zaprezentowane w wyemitowanym przed kilkoma dniami programie dokumentalnym. Opowiadał on o prowadzonej na Bali kampanii na rzecz ochrony środowiska. Grupa ludzi ułożyła na plaży duży napis „Act Now”, a przelatujący nad ich głowami satelita wykonał zdjęcia. Zostały one skoordynowane z selfie robionymi jednocześnie na ziemi. Firma, która uczestniczyła w przedsięwzięciu chce współpracować z organizacjami turystycznymi różnych państw, które są zainteresowane rozpropagowaniem piękna swoich krajobrazów. Jednak Spelifie.com to witryna, która kieruje swoją ofertę do osób indywidualnych biorących udział w imprezach masowych. Kosmiczne selfie zostało przetestowane podczas Glastonbury Festival, jednego z największych na świecie festiwali muzycznych.
      Jeśli chcemy zrobić sobie selfie z kosmosu, musimy zainstalować aplikację i założyć konto na Spelfie.com oraz przesłać informacje, kiedy i w jakiej imprezie weźmiemy udział. Gdy już będziemy na miejscu otrzymamy dokładną informację z koordynatami, gdzie powinniśmy się ustawić i czasem, kiedy powinniśmy samodzielnie zrobić sobie selfie. W tym czasie satelita również wykona zdjęcie. Resztą zajmie się już Spelfie.com. Witryna jeszcze tego samego dnia dostarczy nam zarówno zdjęcie satelitarne z dokładnie zaznaczoną naszą lokalizacją oraz selfie, które sami sobie wykonaliśmy. Anthony Burr, rzecznik prasowy witryny, mówi, że w przyszłości możemy liczyć, iż kosmiczne selfie znajdzie się na naszym koncie w ciągu kilku minut.
      Obecnie Spelfie.com oferuje „obsługę” konkretnych imprez masowych. Jednak już wkrótce ograniczenie to zniknie. Będziemy mogli poinformować Spelfie o tym, gdzie oraz kiedy będziemy i jeśli w tym czasie satelita będzie przelatywał nad naszą głową, wykona zdjęcie i nas na nim oznaczy.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Iskra
      Dokładnie 50 lat temu, późnym wieczorem 29 października 1969 roku na Uniwersytecie Kalifornijskim w Los Angeles (UCLA) dwóch naukowców prowadziło pozornie nieznaczący eksperyment. Jego konsekwencje ujawniły się dopiero wiele lat później, a skutki pracy profesora Leonarda Kleinrocka i jego studenta Charleya Kline'a odczuwamy do dzisiaj.
      Kleinrock i Kline mieli do rozwiązania poważny problem. Chcieli zmusić dwa oddalone od siebie komputery, by wymieniły informacje. To, co dzisiaj wydaje się oczywistością, przed 50 laty było praktycznie nierozwiązanym problemem technicznym. Nierozwiązanym aż do późnego wieczora 29 października 1969 roku.
      Jeden ze wspomnianych komputerów znajdował się w UCLA, a drugi w oddalonym o 600 kilometrów Stanford Research Institute (SRI) w Menlo Park. Próby nawiązania łączności trwały wiele godzin. Kline próbował zalogować się do komputera w SRI, zdążył w linii poleceń wpisać jedynie  „lo”, gdy jego maszyna uległa awarii. Wymagała ponownego zrestartowania i ustanowienia połączenia. W końcu około godziny 22:30 po wielu nieudanych próbach udało się nawiązać łączność i oba komputery mogły ze sobą „porozmawiać”. Wydaje się jednak, że pierwszą wiadomością wysłaną za pomocą sieci ARPANETu było „lo”.
       

       
      Trudne początki
      Początków ARPANETU możemy szukać w... Związku Radzieckim, a konkretnie w wielkim osiągnięciu, jakim było wystrzelenie Sputnika, pierwszego sztucznego satelity Ziemi. To był dla Amerykanów policzek. Rosjanie pokazali, że pod względem technologicznym nie odstają od Amerykanów. Cztery lata zajęło im nadgonienie nas w technologii bomby atomowej, dziewięć miesięcy gonili nas w dziedzinie bomby wodorowej. Teraz my próbujemy dogonić ich w technice satelitarnej, stwierdził w 1957 roku George Reedy, współpracownik senatora, późniejszego prezydenta, Lyndona Johnsona.
      Po wystrzeleniu Sputnika prezydent Eisenhower powołał do życia Advanced Research Project Agency (ARPA), której zadaniem była koordynacja wojskowych projektów badawczo-rozwojowych. ARPA zajmowała się m.in. badaniami związanymi z przestrzenią kosmiczną. Jednak niedługo później powstała NASA, która miała skupiać się na cywilnych badaniach kosmosu, a programy wojskowe rozdysponowano pomiędzy różne wydziały Pentagonu. ARPA zaś, ku zadowoleniu środowisk naukowych, została przekształcona w agencję zajmującą się wysoce ryzykownymi, bardzo przyszłościowymi badaniami o dużym teoretycznym potencjale. Jednym z takich pól badawczych był czysto teoretyczny sektor nauk komputerowych.
      Kilka lat później, w 1962 roku, dyrektorem Biura Technik Przetwarzania Informacji (IPTO) w ARPA został błyskotliwy naukowiec Joseph Licklider. Już w 1960 roku w artykule „Man-Computer Symbiosis” uczony stwierdzał, że w przyszłości ludzkie mózgi i maszyny obliczeniowe będą bardzo ściśle ze sobą powiązane. Już wtedy zdawał on sobie sprawę, że komputery staną się ważną częścią ludzkiego życia.
      W tych czasach komputery były olbrzymimi, niezwykle drogimi urządzeniami, na które mogły pozwolić sobie jedynie najbogatsze instytucje. Gdy Licklider zaczął pracować dla ARPA szybko zauważył, że aby poradzić sobie z olbrzymimi kosztami związanymi z działaniem centrów zajmujących się badaniami nad komputerami, ARPA musi kupić wyspecjalizowane systemy do podziału czasu. Tego typu systemy pozwalały mniejszym komputerom na jednoczesne łączenie się z wielkim mainframe'em i lepsze wykorzystanie czasu jego procesora. Dzięki nim wielki komputer wykonywać różne zadania zlecane przez wielu operatorów. Zanim takie systemy powstały komputery były siłą rzeczy przypisane do jednego operatora i w czasie, gdy np. wpisywał on ciąg poleceń, moc obliczeniowa maszyny nie była wykorzystywana, co było oczywistym marnowaniem jej zasobów i pieniędzy wydanych na zbudowanie i utrzymanie mainframe’a.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dokładnie przed 50 laty, 29 października 1969 roku, dwaj naukowcy z Uniwersytetu Kalifornijskiego w Los Angeles, wykorzystali nowo powstałą, rewolucyjną sieć ARPANET, do przesłania pierwszej wiadomości. Po wielu nieudanych próbach około godziny 22:30 udało się zalogować do komputera w oddalonym o 600 kilometrów Stanford Research Institute.
      Wieloletnia podróż, która rozpoczęła się od... wysłania Sputnika przez Związek Radziecki i trwa do dzisiaj w postaci współczesnego internetu, to fascynująca historia genialnych pomysłów, uporu, porażek i ciężkiej pracy wielu utalentowanych ludzi. Ludzi, wśród których niepoślednią rolę odegrał nasz rodak Paul Baran.
      To, co rozpoczęło się od zimnowojennej rywalizacji atomowych mocarstw, jest obecnie narzędziem, z którego na co dzień korzysta ponad połowa ludzkości. W ciągu pół wieku przeszliśmy od olbrzymich mainframe'ów obsługiwanych z dedykowanych konsol przez niewielką grupę specjalistów, po łączące się z globalną siecią zegarki, lodówki i telewizory, które potrafi obsłużyć dziecko.
      Zapraszamy do zapoznania się z fascynującą historią internetu, jednego z największych wynalazków ludzkości.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...