Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Wróci stary model opłat za Internet?

Rekomendowane odpowiedzi

Gdy Internet dopiero zdobywał popularność, jego dostawcy obciążali klientów w zależności od ilości pobieranych danych. Z czasem okazało się, że znacznie większą popularnością cieszą się usługi nieograniczonego dostępu i niemal wszyscy dostawcy zrezygnowali z uzależniania opłat od ilości danych.

Teraz przedstawiciele ACA (American Cable Association) mówią, że nie unikniemy powrotu do czasów, gdy opłaty były różne w zależności od tego, jak bardzo intensywnie wykorzystujemy łącza. Co prawda klienci i prawodawcy mocno się temu sprzeciwiają i ostatnio wymusili na Time Warner by tymczasowo zrezygnował z takiego rozwiązania, jednak ACA twierdzi, że wcześniej czy później i tak wrócimy do tego modelu.

Przyczyną takiego stanu rzeczy jest szybki rozwój technik multimedialnych. Osoby, które intensywnie będą chciały korzystać np. z usług typu VoD (Video on Demand), będą musiały zapłacić za dodatkowe pasmo. Patrick Knorr z ACA mówi, że jego firma Sunflower Broadband od lat różnicuje ofertę w zależności od ilości danych, których potrzebuje użytkownik. Możliwe jest zatem pojawienie się ofert, w których np. za 150 dolarów miesięcznie mamy nieograniczony dostęp do Internetu, a w abonamencie wartym 40 USD możemy pobrać w ciągu miesiąca ograniczoną liczbę danych i za każdy przekroczony gigabajt lub megabajt musimy dodatkowo zapłacić.

Matt Polka, prezes ACA, argumentuje, że w związku z rosnącym przepływem danych ISP nie będą w stanie zapewnić wszystkim nieograniczonego dostępu do Sieci po najniższych cenach, stąd konieczność zróżnicowania oferty. Porównuje to do innych rachunków (np. za ogrzewanie czy energię elektryczną), które są różne w zależności od tego, jak kształtuje się nasze zapotrzebowanie na dane usługi.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hmm... no porównywanie z rachunkami trochę nie do końca jest chyba uzasadnione - bo jako kontrargument można by wysunąć płacenie czynszu czy podatku gruntowego (w przypadku domów) - nie ważne ile osób użytkuje dany lokal/teren - grunt że zapłaciło się za niego.

 

A z drugiej strony dość sensownym rozwiązaniem jest zróżnicowanie opłat za internet w zależności od aktywności użytkownika - bo niektórzy nie potrzebują ogromnych przepustowości czy limitu danych i dzięki temu mogliby płacić mniej - zaś Ci którzy mają 'zamulać' łącza, zapłacą więcej. Tak samo jak w przypadku telefonii.. Uważam że jeśli ceny nie będą tak zdzierskie jak w czasach gdy pojawiał się internet (rachunki po kilkaset złotych za modem..), ale będą dość sensownie ustanowione (jak np ceny połączeń komórkowych obecnie - kiedyś też było to zdzierstwo, ale teraz w zasadzie każdego stać na komórkę) to protesty ludzi szybko ucichną i nie będzie im takie rozwiązanie przeszkadzać - a może nawet przypadnie do gustu :)

 

Ja myślę że ludzie protestują, bo boją się zmian na gorsze - że internet zrobi się nagle droższy albo coś w tym stylu.. i fakt - jest ryzyko że ustalą zdzierskie stawki - wtedy będzie nieciekawie. Ale powtarzam - jeśli zostanie to zrobione z głową, każdy będzie zadowolony ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z innej beczki - nie wiem czy wiecie, ale 5 maja br. parlament UE ma głosować nad nowelizacją ustawy telekomunikacyjnej, w ramach której (w wyniku zamieszania z poprawkami) dostęp do Internetu mógł stać się dobrem warunkowym (bez decyzji sądu) oraz mógł być sprzedawany przez operatorów w pakietach (jak kablówka) (kwestia interpretacji zapisów). Pakiety takie mogły być dzielone nie tylko w obecnym podziale na przepustowość (i ew. miesięczny limit transferu), ale i w pakietach dostępnych witryn. Pomimo wstępnego odrzucenia poprawki 138 po pierwszym czytaniu, która nadawała dostępowi do Internetowi fundamentalne prawa wolności - przyjęto jednak poprawkę 46 (mniej więcej) traktującą o tym samym, lecz wprowadzającą zapisy do preambuły, zamiast do treści dyrektywy. Niniejszym państwa członkowskie mimo iż są zobowiązane do integracji dyrektyw, to preambuły mają dobrowolny charakter...

 

Więdcej informacji:

 

http://www.blackouteurope.eu/

http://www.blackouteurope.pl/

http://en.wikipedia.org/wiki/Telecoms_Package

http://prawo.vagla.pl/node/8459

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Porównanie niezbyt trafione, gaz jest kopaliną, i wydobycie jednostki masy/objętości kosztuje (i co gorsza kreml ma nas w garści). Produkcja kilowata prądu też, surowce trzeba zużyć. Natomiast ściągnięcie danych z internetu nie jest przekładalne na jakieś realne dobra.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie będę się upierał przy tym konkretnym słowie, bo można tam równie dobrze innego zwrotu użyć, aczkolwiek za (SJP):

 

dobra I

1. «duży majątek ziemski»

2. «rzeczy i wartości potrzebne do życia i rozwoju człowieka»

 

Do życia potrzebne nie jest, ale niewątpliwie przydatne do rozwoju. No i ograniczenie takiego dostępu jest niewątpliwym ograniczeniem wolności.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Płacenie za ilość pobranych danych jest bardzo niesprawiedliwe, bo użytkownik/host nie ma wpływu na ilość pobieranych danych... obrazowo mówiąc, może jedynie poprosić innego hosta/serwer, by ten mu coś wysłał.

To tak jak byśmy mieli firmom pocztowym płacić za to, co wyciągamy ze skrzynek (włącznie z reklamami)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sprawiedliwa czy nie, dobrze żeby powstała taka możliwość płatności. Możliwość wyboru, nawet najgłupszego, jest zawsze korzystna dla rynku i dla konsumenta.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Płacenie za ilość pobranych danych jest bardzo niesprawiedliwe, bo użytkownik/host nie ma wpływu na ilość pobieranych danych... obrazowo mówiąc, może jedynie poprosić innego hosta/serwer, by ten mu coś wysłał.

To tak jak byśmy mieli firmom pocztowym płacić za to, co wyciągamy ze skrzynek (włącznie z reklamami)

Jest to dość uciążliwe, ale przecież powszechne chociażby w dostępie przez komórkę. Poza tym od czasu połączeń modemowych znane są liczniki ściąganych danych. W przypadku poczty nie musisz przecież ściągać (przez POP3) całości maila - możesz same nagłówki lub określoną porcję, by przekonać się czy warto resztę. W przypadku stron www można przecież wyłączyć ściąganie flashy, a jeśli naprawdę mamy niski limit, to i obrazków. Dodatkowo teraz będzie funkcjonować usługa Opera Turbo, której zadaniem jest kompresowanie stron i obrazków na serwerach Opery, przed ściągnięciem do przeglądarki. A jeśli ktoś chce ściągać filmy czy słuchać radia, to przecież nie weźmie takiego pakietu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Krystus, porównanie z pocztą było niezbyt trafne - de facto to co trafia do Twojej skrzynki jest opłacone - nie bezpośrednio przez Ciebie, ale przez nadawcę który chce Ci coś wysłać - chyba że zgadzasz się na opcję za pobraniem.. Ale to kwestia innego systemu - nie płacisz Ty, ale płaci ten kto chce przesłać dane. W wypadku internetu to adresat chce pobrać dane i dlatego on płaci.

 

Niemniej przyznam że problem robi się gdy mają do Ciebie przychodzić różne spamy, reklamy, setki migających na stronach banerów itd.. Bo jest to rzeczywiście treść niechciana, za którą musisz zapłacić. Na szczęście są odpowiednie filtry i programy pozwalające się bronić przed tą plagą XXI wieku.

 

Poza tym, może przy powrocie opłat za ilość danych w Ameryce zostanie wszczętych trochę procesów za okradanie użytkownika z jego pieniędzy poprzez właścicieli serwisów spamowych oraz reklamowych - 'bo on przecież nie chciał wcale pobierać tej treści, dotarła do niego wbrew jego woli i musiał za nią jeszcze zapłacić..'. Myślę że wtedy szybko spam by się skończył - a Ameryce tego typu procesy często wygrywa 'użytkownik' i zasądzane potrafią być spore odszkodowania.. Jeden proces wygrany, potem tysiące kolejnych pozwów i traktowanie pierwszego jako precedens - i spamerzy by się do końca życia nie wypłacili, a nowych by nie przybywało, bo nie bardzo mieliby chęć wypłacania odszkodowań ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

...W wypadku internetu to adresat chce pobrać dane i dlatego on płaci...

 

Jako prawie inżynier administrator systemów i sieci komputerowych, muszę wyprowadzić Cię z błędu.

Otóż, jak wcześniej wspomniałem, klient może jedynie prosić serwer, aby ten mu coś wysłał i nie ma żadnego wpływu na to co serwer mu wyśle. ..I nie chodzi tu tylko o e-maile, czy strony internetowe, ale o ogólną zasadę działania sieci komputerowych.

Proponuję poczytać np. http://pl.wikipedia.org/wiki/Flood_(informatyka) albo http://pl.wikipedia.org/wiki/Ping_flood

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hmm.. na informatyce nie znam się zawodowo i w tej kwestii przyznaję Ci rację - że ogółem wysyłane są różne informacje na które klient nie ma wpływu. Ale przecież to nie one powodują wygenerowanie 20-200GB transferu danych u zwykłego użytkownika. Taki transfer osiąga się poprzez przede wszystkim ściąganie dużych plików oraz dodatkowo używanie serwisów typu youtube czy wrzuta (buforowanie danych na dysku użytkownika).

 

klient może jedynie prosić serwer, aby ten mu coś wysłał i nie ma żadnego wpływu na to co serwer mu wyśle

 

W kontekście o którym ja mówię nie jest to słuszne - przecież użytkownik wybiera czy ściągnie duży plik lub czy obejrzy film z youtube / przesłucha piosenkę na wrzucie..

 

Samo przeglądanie stron internetowych i ściąganie poczty bez załączników generuje transfer rzędu 5-10GB. A taki ruch zmieści się na pewno w najmniejszych z dostępnych pakietów jakie się pojawią..

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No cóż, jak ktoś siedzi np. na IRC-u (choć to zupełnie niekonieczny warunek), narazi się nieodpowiedniej osobie i dostanie DDoS-a, to limicik wyczerpie w parę chwil (lub nabije astronomiczny). Ale kto przy zdrowych zmysłach tak siedzi. Jakkolwiek nie do końca można powiedzieć, że nie ma się wpływu na to co się ściąga - od tego jest protokół (warstwy aplikacji). Mówię naturalnie o standardowych usługach, bowiem są i takie, na które mamy znikomy wpływ (synchronizacja czasu, aktualizacje systemu i sygnatur wirusów itp.). Na wspomnianego chociażby pinga oczywiście mamy wpływ, o czym raczej zdajesz sobie sprawę. Bo przecież nie mówimy chyba o tym by ściągnąć mniejszego rara lub w mniejszej rozdzielczości obrazek, niż ktoś zamieścił. ;-)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Szerokie rozpowszechnienie się internetu i technologii komunikacyjnych przyciąga ludzi do centrów miast. Zachodzi więc zjawisko odwrotne, niż przewidywano u zarania internetu i ery informacyjnej, informują naukowcy z Uniwersytetu w Bristolu.
      Pomimo tego, że internet pozwala nam na niezwykle łatwy dostęp do wszelkich informacji i umożliwia łatwe i szybkie nawiązanie kontaktu z osobami z drugiego końca świata, jego rozwój nie doprowadził do odpływu ludności z miast. Wręcz przeciwnie, specjaliści zauważyli odwrotne zjawisko. Coraz większe rozpowszechnienie się technologii informacyjnych prowadzi zwiększenia koncentracji ludzi w miastach.
      Nie od dzisiaj wiemy, że np. przedsiębiorstwa działające na uzupełniających się polach, mają tendencje do grupowania się na tym samym obszarze, gdyż zmniejsza to koszty działalności. Technologie informacyjne miały to zmienić.
      Doktor Emmanouil Tranos z Univeristy of Bristol i Yannis M. Ioannides z Tufts Univeristy przeanalizowali skutki zachodzących w czasie zmian dostępności i prędkości łączy internetowych oraz użytkowania internetu na obszary miejskie w USA i Wielkiej Brytanii. Geografowie, planiści i ekonomiści miejscy, którzy na początku epoki internetu rozważali jego wpływ na miasta, dochodzili czasem do dziwacznych wniosków. Niektórzy wróżyli rozwój „tele-wiosek”, krajów bez granic, a nawet mówiono o końcu miasta.
      Dzisiaj, 25 lat po komercjalizacji internetu, wiemy, że przewidywania te wyolbrzymiały wpływ internetu i technologii informacyjnych w zakresie kontaktów i zmniejszenia kosztów związanych z odległością. Wciąż rosnąca urbanizacja pokazuje coś wręcz przeciwnego. Widzimy, że istnieje komplementarność pomiędzy internetem a aglomeracjami. Nowoczesne technologie informacyjne nie wypchnęły ludzi z miast, a ich do nich przyciągają.
      Artykuł Ubiquitous digital technologies and spatial structure; an update został opublikowany na łamach PLOS One.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Iskra
      Dokładnie 50 lat temu, późnym wieczorem 29 października 1969 roku na Uniwersytecie Kalifornijskim w Los Angeles (UCLA) dwóch naukowców prowadziło pozornie nieznaczący eksperyment. Jego konsekwencje ujawniły się dopiero wiele lat później, a skutki pracy profesora Leonarda Kleinrocka i jego studenta Charleya Kline'a odczuwamy do dzisiaj.
      Kleinrock i Kline mieli do rozwiązania poważny problem. Chcieli zmusić dwa oddalone od siebie komputery, by wymieniły informacje. To, co dzisiaj wydaje się oczywistością, przed 50 laty było praktycznie nierozwiązanym problemem technicznym. Nierozwiązanym aż do późnego wieczora 29 października 1969 roku.
      Jeden ze wspomnianych komputerów znajdował się w UCLA, a drugi w oddalonym o 600 kilometrów Stanford Research Institute (SRI) w Menlo Park. Próby nawiązania łączności trwały wiele godzin. Kline próbował zalogować się do komputera w SRI, zdążył w linii poleceń wpisać jedynie  „lo”, gdy jego maszyna uległa awarii. Wymagała ponownego zrestartowania i ustanowienia połączenia. W końcu około godziny 22:30 po wielu nieudanych próbach udało się nawiązać łączność i oba komputery mogły ze sobą „porozmawiać”. Wydaje się jednak, że pierwszą wiadomością wysłaną za pomocą sieci ARPANETu było „lo”.
       

       
      Trudne początki
      Początków ARPANETU możemy szukać w... Związku Radzieckim, a konkretnie w wielkim osiągnięciu, jakim było wystrzelenie Sputnika, pierwszego sztucznego satelity Ziemi. To był dla Amerykanów policzek. Rosjanie pokazali, że pod względem technologicznym nie odstają od Amerykanów. Cztery lata zajęło im nadgonienie nas w technologii bomby atomowej, dziewięć miesięcy gonili nas w dziedzinie bomby wodorowej. Teraz my próbujemy dogonić ich w technice satelitarnej, stwierdził w 1957 roku George Reedy, współpracownik senatora, późniejszego prezydenta, Lyndona Johnsona.
      Po wystrzeleniu Sputnika prezydent Eisenhower powołał do życia Advanced Research Project Agency (ARPA), której zadaniem była koordynacja wojskowych projektów badawczo-rozwojowych. ARPA zajmowała się m.in. badaniami związanymi z przestrzenią kosmiczną. Jednak niedługo później powstała NASA, która miała skupiać się na cywilnych badaniach kosmosu, a programy wojskowe rozdysponowano pomiędzy różne wydziały Pentagonu. ARPA zaś, ku zadowoleniu środowisk naukowych, została przekształcona w agencję zajmującą się wysoce ryzykownymi, bardzo przyszłościowymi badaniami o dużym teoretycznym potencjale. Jednym z takich pól badawczych był czysto teoretyczny sektor nauk komputerowych.
      Kilka lat później, w 1962 roku, dyrektorem Biura Technik Przetwarzania Informacji (IPTO) w ARPA został błyskotliwy naukowiec Joseph Licklider. Już w 1960 roku w artykule „Man-Computer Symbiosis” uczony stwierdzał, że w przyszłości ludzkie mózgi i maszyny obliczeniowe będą bardzo ściśle ze sobą powiązane. Już wtedy zdawał on sobie sprawę, że komputery staną się ważną częścią ludzkiego życia.
      W tych czasach komputery były olbrzymimi, niezwykle drogimi urządzeniami, na które mogły pozwolić sobie jedynie najbogatsze instytucje. Gdy Licklider zaczął pracować dla ARPA szybko zauważył, że aby poradzić sobie z olbrzymimi kosztami związanymi z działaniem centrów zajmujących się badaniami nad komputerami, ARPA musi kupić wyspecjalizowane systemy do podziału czasu. Tego typu systemy pozwalały mniejszym komputerom na jednoczesne łączenie się z wielkim mainframe'em i lepsze wykorzystanie czasu jego procesora. Dzięki nim wielki komputer wykonywać różne zadania zlecane przez wielu operatorów. Zanim takie systemy powstały komputery były siłą rzeczy przypisane do jednego operatora i w czasie, gdy np. wpisywał on ciąg poleceń, moc obliczeniowa maszyny nie była wykorzystywana, co było oczywistym marnowaniem jej zasobów i pieniędzy wydanych na zbudowanie i utrzymanie mainframe’a.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dokładnie przed 50 laty, 29 października 1969 roku, dwaj naukowcy z Uniwersytetu Kalifornijskiego w Los Angeles, wykorzystali nowo powstałą, rewolucyjną sieć ARPANET, do przesłania pierwszej wiadomości. Po wielu nieudanych próbach około godziny 22:30 udało się zalogować do komputera w oddalonym o 600 kilometrów Stanford Research Institute.
      Wieloletnia podróż, która rozpoczęła się od... wysłania Sputnika przez Związek Radziecki i trwa do dzisiaj w postaci współczesnego internetu, to fascynująca historia genialnych pomysłów, uporu, porażek i ciężkiej pracy wielu utalentowanych ludzi. Ludzi, wśród których niepoślednią rolę odegrał nasz rodak Paul Baran.
      To, co rozpoczęło się od zimnowojennej rywalizacji atomowych mocarstw, jest obecnie narzędziem, z którego na co dzień korzysta ponad połowa ludzkości. W ciągu pół wieku przeszliśmy od olbrzymich mainframe'ów obsługiwanych z dedykowanych konsol przez niewielką grupę specjalistów, po łączące się z globalną siecią zegarki, lodówki i telewizory, które potrafi obsłużyć dziecko.
      Zapraszamy do zapoznania się z fascynującą historią internetu, jednego z największych wynalazków ludzkości.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Uniwersytet Hebrajski w Jerozolimie udostępni całe archiwum Alberta Einsteina. Dzięki internetowi będziemy mogli zapoznać się zarówno z listami miłosnymi uczonego, jak i z jego notatkami, które tworzył pracując nad swoimi teoriami.
      Od 2003 roku w sieci dostępnych jest około 900 zdjęć manuskryptów oraz niekompletny spis obejmujący około połowy archiwum. Teraz, dzięki pieniądzom z Polonsky Foundation, która wcześniej pomogła zdigitalizować prace Izaaka Newtona, zapoznamy się z 80 000 dokumentów i innych przedmiotów, które zostawił Einstein.
      Projekt digitalizacji całości archiwów rozpoczęto 19 marca 2012 roku. Uruchomiono witrynę alberteinstein.info, na której można będzie zapoznawać się ze spuścizną fizyka. Obecnie można na niej oglądać 2000 dokumentów, na które składa się 7000 stron.
    • przez KopalniaWiedzy.pl
      BEREC, agenda Unii Europejskiej odpowiedzialna za regulacje na rynku telekomunikacyjnym poinformowała, że w UE powszechnie blokuje się dostęp do internetu. Według BEREC w ramach praktyk zarządzania ruchem najczęściej ogranicza się przepustowość lub blokuje w ogóle protokół P2P oraz telefonię internetową (VoIP). Ta ostatnia jest blokowana przede wszystkim w sieciach telefonii komórkowej i wynika to z zapisów w umowach zwieranych z klientami.
      Badania przeprowadzone przez BEREC pokazują, że około 25% dostawców internetu usprawiedliwia blokowanie czy ograniczanie ruchu względami „bezpieczeństwa i integralności“ sieci. Około 33% stosuje różne techniki zarządzania ruchem, gdyż obok standardowych usług świadczą też usługi wyspecjalizowane, np. oferują obok internetu telewizję czy telefonię.
      Obecnie BEREC prowadzi analizę uzyskanych danych. Zostaną one sprawdzone, skonsolidowane i na ich podstawie powstanie szczegółowy raport, który zostanie przedstawiony w drugim kwartale bieżącego roku.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...