Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Nowe restrykcje w Unii Europejskiej

Rekomendowane odpowiedzi

Zdaniem brytyjskiej organizacji Ofcom, zasady, które chce przyjąć Parlament Europejski, zagrażają rozwojowi nowych mediów. Obecnie w ramach istniejącego prawa znanego jako "telewizja bez granic" Unia Europejska wymaga od nadawców telewizyjnych, by chronili małoletnich przed szkodliwymi treściami, nie przekazywali treści wywołujących nienawiść i unikali podobnych nadużyć.

Parlament chce te przepisy rozszerzyć na wszelki przekaz wideo. Miałyby one dotyczyć więc również firm oferujących filmy dla telefonów komórkowych, blogi na których można zamieszczać pliki wideo, czy przedsiębiorstw działających jedynie w Internecie. Brytyjczycy uważają, że wspomniane przepisy powinny dotyczyć tylko stacji telewizyjnych. W przeciwnym razie, argumentują, wiele przedsiębiorstw przeniesie swoją działalność poza UE by uniknąć restrykcyjnego prawa.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Szerokie rozpowszechnienie się internetu i technologii komunikacyjnych przyciąga ludzi do centrów miast. Zachodzi więc zjawisko odwrotne, niż przewidywano u zarania internetu i ery informacyjnej, informują naukowcy z Uniwersytetu w Bristolu.
      Pomimo tego, że internet pozwala nam na niezwykle łatwy dostęp do wszelkich informacji i umożliwia łatwe i szybkie nawiązanie kontaktu z osobami z drugiego końca świata, jego rozwój nie doprowadził do odpływu ludności z miast. Wręcz przeciwnie, specjaliści zauważyli odwrotne zjawisko. Coraz większe rozpowszechnienie się technologii informacyjnych prowadzi zwiększenia koncentracji ludzi w miastach.
      Nie od dzisiaj wiemy, że np. przedsiębiorstwa działające na uzupełniających się polach, mają tendencje do grupowania się na tym samym obszarze, gdyż zmniejsza to koszty działalności. Technologie informacyjne miały to zmienić.
      Doktor Emmanouil Tranos z Univeristy of Bristol i Yannis M. Ioannides z Tufts Univeristy przeanalizowali skutki zachodzących w czasie zmian dostępności i prędkości łączy internetowych oraz użytkowania internetu na obszary miejskie w USA i Wielkiej Brytanii. Geografowie, planiści i ekonomiści miejscy, którzy na początku epoki internetu rozważali jego wpływ na miasta, dochodzili czasem do dziwacznych wniosków. Niektórzy wróżyli rozwój „tele-wiosek”, krajów bez granic, a nawet mówiono o końcu miasta.
      Dzisiaj, 25 lat po komercjalizacji internetu, wiemy, że przewidywania te wyolbrzymiały wpływ internetu i technologii informacyjnych w zakresie kontaktów i zmniejszenia kosztów związanych z odległością. Wciąż rosnąca urbanizacja pokazuje coś wręcz przeciwnego. Widzimy, że istnieje komplementarność pomiędzy internetem a aglomeracjami. Nowoczesne technologie informacyjne nie wypchnęły ludzi z miast, a ich do nich przyciągają.
      Artykuł Ubiquitous digital technologies and spatial structure; an update został opublikowany na łamach PLOS One.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Iskra
      Dokładnie 50 lat temu, późnym wieczorem 29 października 1969 roku na Uniwersytecie Kalifornijskim w Los Angeles (UCLA) dwóch naukowców prowadziło pozornie nieznaczący eksperyment. Jego konsekwencje ujawniły się dopiero wiele lat później, a skutki pracy profesora Leonarda Kleinrocka i jego studenta Charleya Kline'a odczuwamy do dzisiaj.
      Kleinrock i Kline mieli do rozwiązania poważny problem. Chcieli zmusić dwa oddalone od siebie komputery, by wymieniły informacje. To, co dzisiaj wydaje się oczywistością, przed 50 laty było praktycznie nierozwiązanym problemem technicznym. Nierozwiązanym aż do późnego wieczora 29 października 1969 roku.
      Jeden ze wspomnianych komputerów znajdował się w UCLA, a drugi w oddalonym o 600 kilometrów Stanford Research Institute (SRI) w Menlo Park. Próby nawiązania łączności trwały wiele godzin. Kline próbował zalogować się do komputera w SRI, zdążył w linii poleceń wpisać jedynie  „lo”, gdy jego maszyna uległa awarii. Wymagała ponownego zrestartowania i ustanowienia połączenia. W końcu około godziny 22:30 po wielu nieudanych próbach udało się nawiązać łączność i oba komputery mogły ze sobą „porozmawiać”. Wydaje się jednak, że pierwszą wiadomością wysłaną za pomocą sieci ARPANETu było „lo”.
       

       
      Trudne początki
      Początków ARPANETU możemy szukać w... Związku Radzieckim, a konkretnie w wielkim osiągnięciu, jakim było wystrzelenie Sputnika, pierwszego sztucznego satelity Ziemi. To był dla Amerykanów policzek. Rosjanie pokazali, że pod względem technologicznym nie odstają od Amerykanów. Cztery lata zajęło im nadgonienie nas w technologii bomby atomowej, dziewięć miesięcy gonili nas w dziedzinie bomby wodorowej. Teraz my próbujemy dogonić ich w technice satelitarnej, stwierdził w 1957 roku George Reedy, współpracownik senatora, późniejszego prezydenta, Lyndona Johnsona.
      Po wystrzeleniu Sputnika prezydent Eisenhower powołał do życia Advanced Research Project Agency (ARPA), której zadaniem była koordynacja wojskowych projektów badawczo-rozwojowych. ARPA zajmowała się m.in. badaniami związanymi z przestrzenią kosmiczną. Jednak niedługo później powstała NASA, która miała skupiać się na cywilnych badaniach kosmosu, a programy wojskowe rozdysponowano pomiędzy różne wydziały Pentagonu. ARPA zaś, ku zadowoleniu środowisk naukowych, została przekształcona w agencję zajmującą się wysoce ryzykownymi, bardzo przyszłościowymi badaniami o dużym teoretycznym potencjale. Jednym z takich pól badawczych był czysto teoretyczny sektor nauk komputerowych.
      Kilka lat później, w 1962 roku, dyrektorem Biura Technik Przetwarzania Informacji (IPTO) w ARPA został błyskotliwy naukowiec Joseph Licklider. Już w 1960 roku w artykule „Man-Computer Symbiosis” uczony stwierdzał, że w przyszłości ludzkie mózgi i maszyny obliczeniowe będą bardzo ściśle ze sobą powiązane. Już wtedy zdawał on sobie sprawę, że komputery staną się ważną częścią ludzkiego życia.
      W tych czasach komputery były olbrzymimi, niezwykle drogimi urządzeniami, na które mogły pozwolić sobie jedynie najbogatsze instytucje. Gdy Licklider zaczął pracować dla ARPA szybko zauważył, że aby poradzić sobie z olbrzymimi kosztami związanymi z działaniem centrów zajmujących się badaniami nad komputerami, ARPA musi kupić wyspecjalizowane systemy do podziału czasu. Tego typu systemy pozwalały mniejszym komputerom na jednoczesne łączenie się z wielkim mainframe'em i lepsze wykorzystanie czasu jego procesora. Dzięki nim wielki komputer wykonywać różne zadania zlecane przez wielu operatorów. Zanim takie systemy powstały komputery były siłą rzeczy przypisane do jednego operatora i w czasie, gdy np. wpisywał on ciąg poleceń, moc obliczeniowa maszyny nie była wykorzystywana, co było oczywistym marnowaniem jej zasobów i pieniędzy wydanych na zbudowanie i utrzymanie mainframe’a.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dokładnie przed 50 laty, 29 października 1969 roku, dwaj naukowcy z Uniwersytetu Kalifornijskiego w Los Angeles, wykorzystali nowo powstałą, rewolucyjną sieć ARPANET, do przesłania pierwszej wiadomości. Po wielu nieudanych próbach około godziny 22:30 udało się zalogować do komputera w oddalonym o 600 kilometrów Stanford Research Institute.
      Wieloletnia podróż, która rozpoczęła się od... wysłania Sputnika przez Związek Radziecki i trwa do dzisiaj w postaci współczesnego internetu, to fascynująca historia genialnych pomysłów, uporu, porażek i ciężkiej pracy wielu utalentowanych ludzi. Ludzi, wśród których niepoślednią rolę odegrał nasz rodak Paul Baran.
      To, co rozpoczęło się od zimnowojennej rywalizacji atomowych mocarstw, jest obecnie narzędziem, z którego na co dzień korzysta ponad połowa ludzkości. W ciągu pół wieku przeszliśmy od olbrzymich mainframe'ów obsługiwanych z dedykowanych konsol przez niewielką grupę specjalistów, po łączące się z globalną siecią zegarki, lodówki i telewizory, które potrafi obsłużyć dziecko.
      Zapraszamy do zapoznania się z fascynującą historią internetu, jednego z największych wynalazków ludzkości.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Przed trzema laty okazało się, że Volkswagen oszukuje podczas testów emisji spalin. Koncern tak zaprogramował urządzenie do kontroli emisji, że w czasie testów silnik emitował nawet 40-krotnie mniej szkodliwych substancji, niż w czasie rzeczywistego użytkowania.
      Teraz badacze z MIT wykazali, że Volkswagen nie jest jedyną firmą, której pojazdy lepiej wypadają w czasie testów niż podczas korzystania z nich przez użytkowników. Z artykuły opublikowanego na łamach Atmospheric Environment dowiadujemy się, że samochody z silnikiem Diesla sprzedane w latach 2000–2015 w Europie przez 10 największych producentów samochodów emitują do 16 razy tlenków azotu niż emitowały podczas testów. Emisja ta przekracza limity obowiązujące w UE, lecz... nie narusza to żadnych przepisów. Ta dodatkowa emisja zabija około 2700 osób rocznie, a jej szkodliwe skutki są odczuwane na przestrzeni tysięcy kilometrów. Odkryliśmy, że 70% przypadków zgonów spowodowanych tą emisją to zgony transgraniczne. Ludzie umierają z tego powodu w innych krajach, niż dochodzi do emisji. To pokazuje, że rozwiązanie problemu wymaga działań w skali całego kontynentu, mówi główny autor badań profesor Steven Barrett.
      Uczeni stwierdzili też, że istnieje prosty sposób, by znacznie ograniczyć negatywny wpływ emisji. Okazało się bowiem, że jeśli wspomnianych 10 producentów wyprodukuje silniki, których emisja będzie taka, jak najlepszego w ich grupie, to ocalą w ten sposób życie 1900 osób rocznie. W prosty sposób można uniknąć dużej liczby zgonów, mówi Barrett.
      Naukowcy skupili się na tlenkach azotu emitowanych przez silniki Diesla. Powodują one choroby układu oddechowego oraz choroba serca. W Europie jeździ wielokrotnie więcej samochodów z silnikiem Diesla niż w USA, częściowo dlatego, że Unia Europejska promowała takie silniki, gdyż emitują one mniej dwutlenku węgla. Jednak o ile silniki Diesla mogą być mniej szkodliwe dla środowiska niż silniki benzynowe, to są bardziej szkodliwe dla ludzkiego zdrowia, mówi Barrett.
      Ostatnio EU zaostrza przepisy dotyczące emisji tlenków azotu, jednak większość pojazdów nie spełnia tych norm. Pozornie są one spełniane, gdyż producenci samochodów manipulują wynikami testów. Takie działanie zaś nie jest w UE nielegalne.
      Barrett i jego zespół przyjrzeli się emisji z silników samochodów produkcji Volkswagena, Renaulta, Peugeota-Citroena, Fiata, Forda, BMW, General Motors, Daimlera, Toyoty i Hyundaia. Pojazdy tych firm stanowią ponad 90% wszystkich samochodów poruszających się po drogach Unii Europejskiej, Norwegii i Szwajcarii.
      Szczegółowe analizy wykazały, że podczas jazdy po drodze samochody te emitują nawet 16-krotnie więcej tlenków azotu niż w czasie testów laboratoryjnych. Po połączeniu tych danych z modelem transportu substancji chemicznych w powietrzu, modelem atmosferycznym Europy i danymi epidemiologicznymi, naukowcy stwierdzili, że z powodu tej wyższej emisji każdego roku aż 2700 osób umiera o co najmniej dekadę wcześniej. Najbardziej szkodliwe dla zdrowia człowieka są silniki obecne w samochodach Volkswagena, Renaulta i General Motors. Najmniej szkodliwe okazały się silniki Toyoty, Hyundaia i BMW. Różnice pomiędzy producentami były nawet 5-krotne.
      Rozbicie danych na poszczególne kraje wykazały, że Polska i Szwajcaria są państwami o najmniejszej emisji nadmiarowych tlenków azotu i to właśnie w tych krajach dochodzi do nieproporcjonalnie dużej liczby zgonów z powodu zanieczyszczeń z innych państw. Praktycznie nie ma korelacji pomiędzy tym, w jakich państwach dochodzi do emisji, a kto z jej powodu cierpi, mówi Barrett. Molekuły tlenków azotu mogą przebyć tysiące kilometrów zanim zajdzie reakcja chemiczna, w wyniku której powstają związki szkodliwe dla ludzkiego zdrowia.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Firma Kaspersky Lab zamroziła wszelką współpracę z europejskimi agencjami i organizacjami. To protest przeciwko oświadczeniu Unii Europejskiej, która określiła oprogramowanie Kaspersky mianem „złośliwego”.
      Określenie takie znalazło się w dokumencie, wzywającym do bliskiemu przyjrzeniu się wykorzystywanemu przez kraje członkowskie UE oprogramowaniu, infrastrukturze i wyposażeniu. Taki audyt miałby lepiej zabezpieczyć je przez atakami sponsorowanymi przez inne kraje. W jednej z propozycji wymienionych w dokumencie czytamy, że powinno się też zakazać oprogramowania, w przypadku którego potwierdzono, że jest złośliwe, tak jak oprogramowanie Kaspersky Lab. Działania UE są podobne do tych, które wcześniej podjęto w USA, gdzie zakazano używania programów Kaspersky Lab na komputerach rządowych.
      Kaspersky, która informuje, że od 20 lat współpracuje z UE w celu eliminowania zagrożeń, nazwała stwierdzenia ze wspomnianego dokumentu „nieprawdziwymi” i stwierdziła, że jest to „wyjątkowy brak szacunku”.
      Dyrektor firmy, Eugene Kaspersky, stwierdził, że przedsiębiorstwo nie miało innego wyjścia, jak tylko podjąć zdecydowane działania i zawiesić wszelką współpracę z agendami UE, w tym z Europolem. To frustrujące, że nie przeprowadzono żadnego śledztwa, nie przestawiono żadnych dowodów na nieprawidłowości z naszej strony, a tylko powtórzono fałszywe oskarżenia z anonimowych źródeł. Ryzyko związane z używaniem naszego oprogramowania jest czysto hipotetyczne. Jest ono tak samo hipotetyczne, jak używanie każdego innego oprogramowania zabezpieczającego z każdego innego kraju. Jednak zagrożenie stwarzane przez cyberprzestępców jest realne. Innymi słowy, polityczne decyzje UE działają na korzyść cyberprzestępców.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...