Zaloguj się, aby obserwować tę zawartość
Obserwujący
0
Co denerwuje bardziej: spam czy mailing?
dodany przez
KopalniaWiedzy.pl, w Ciekawostki
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Szerokie rozpowszechnienie się internetu i technologii komunikacyjnych przyciąga ludzi do centrów miast. Zachodzi więc zjawisko odwrotne, niż przewidywano u zarania internetu i ery informacyjnej, informują naukowcy z Uniwersytetu w Bristolu.
Pomimo tego, że internet pozwala nam na niezwykle łatwy dostęp do wszelkich informacji i umożliwia łatwe i szybkie nawiązanie kontaktu z osobami z drugiego końca świata, jego rozwój nie doprowadził do odpływu ludności z miast. Wręcz przeciwnie, specjaliści zauważyli odwrotne zjawisko. Coraz większe rozpowszechnienie się technologii informacyjnych prowadzi zwiększenia koncentracji ludzi w miastach.
Nie od dzisiaj wiemy, że np. przedsiębiorstwa działające na uzupełniających się polach, mają tendencje do grupowania się na tym samym obszarze, gdyż zmniejsza to koszty działalności. Technologie informacyjne miały to zmienić.
Doktor Emmanouil Tranos z Univeristy of Bristol i Yannis M. Ioannides z Tufts Univeristy przeanalizowali skutki zachodzących w czasie zmian dostępności i prędkości łączy internetowych oraz użytkowania internetu na obszary miejskie w USA i Wielkiej Brytanii. Geografowie, planiści i ekonomiści miejscy, którzy na początku epoki internetu rozważali jego wpływ na miasta, dochodzili czasem do dziwacznych wniosków. Niektórzy wróżyli rozwój „tele-wiosek”, krajów bez granic, a nawet mówiono o końcu miasta.
Dzisiaj, 25 lat po komercjalizacji internetu, wiemy, że przewidywania te wyolbrzymiały wpływ internetu i technologii informacyjnych w zakresie kontaktów i zmniejszenia kosztów związanych z odległością. Wciąż rosnąca urbanizacja pokazuje coś wręcz przeciwnego. Widzimy, że istnieje komplementarność pomiędzy internetem a aglomeracjami. Nowoczesne technologie informacyjne nie wypchnęły ludzi z miast, a ich do nich przyciągają.
Artykuł Ubiquitous digital technologies and spatial structure; an update został opublikowany na łamach PLOS One.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Poczta elektroniczna nie jest już tylko sposobem na komunikację pomiędzy osobami, które znajdują się daleko od siebie. Używa się jej również do łatwego przekazywania informacji i plików pomiędzy pracownikami wykonującymi swoje obowiązki w tym samym biurze. Odbieramy i wysyłamy coraz więcej wiadomości, dlatego tak ważne jest, żebyśmy posiadali odpowiednią aplikację do ich obsługi. Jaką wybrać?
Poczta e-mail kluczowym narzędziem
Badania wykazują, że poczta elektroniczna jest obecnie najpopularniejszą usługą stosowaną w firmach do komunikacji, a w kolejnych latach ma dalej zyskiwać na znaczeniu. Okazuje się, że pracownicy, którzy obsługują firmową pocztę e-mail, poświęcają na to zadanie średnio ponad 3 godziny dziennie.
Natomiast analiza przeprowadzona przez firmę The Radicati Group wykazała, że każdy użytkownik sieci w 2018 roku odbierał i wysyłał dziennie średnio 122 wiadomości. Biorąc pod uwagę ilość SPAM-u, jaką dostajemy na swoje skrzynki e-mail, można stwierdzić, że liczba ta wcale nie jest duża. Poczta firmowa korzysta jednak najczęściej z zaawansowanych filtrów antyspamowych, które ograniczają ilość niechcianych wiadomości do minimum. Poza tym, przedsiębiorstwa nie używają darmowych adresów e-mail, na które otrzymuje się dziesiątki wiadomości reklamowych dziennie. Firmy mają własne domeny, korzystają z usług hostingowych i z reguły posiadają zaawansowane rozwiązania do obsługi poczty. Jest to niezbędne m.in. ze względu na kwestie związane z ochroną.
W badaniu przeprowadzonym przez przedsiębiorstwo Barracuda 94 proc. respondentów przyznało, iż uznaje pocztę e-mail za jeden z najwrażliwszych punktów w zabezpieczeniach ich organizacji. Groźne są m.in. ataki phishingowe. To, czy firmowa poczta nie będzie zagrożona, zależy m.in. od tego, na jakie narzędzia postawi firma w zakresie obsługi wiadomości. Warto brać pod uwagę następujące rozwiązania:
• Microsoft Exchange Online – niemal każdy użytkownik poczty e-mail miał kiedyś do czynienia z produktami marki Microsoft, a wymieniona usługa została stworzona specjalnie z myślą o firmach. Jej atutem są m.in. filtry antyspamowe, do 100 GB powierzchni na wiadomości, ochrona przed złośliwym oprogramowaniem i dostęp na urządzeniach mobilnych. Do tego dochodzi możliwość wspólnej pracy, tj. korzystania z jednej skrzynki przez wielu użytkowników, współdzielonego kalendarza czy grupowych konwersacji. Decydując się na tę skrzynkę, możesz używać adresów we własnej domenie, a na pocztę logować się za pomocą przeglądarki.
• Gmail – kolejne bardzo popularne rozwiązanie, które ma na świecie ponad 1 mld użytkowników, a przynajmniej tak twierdzi Google. Usługa ta jest również dostępna w wersji dla firm. Według jej właścicieli blokuje ona aż 99,9 proc. phishingu i złośliwego oprogramowania. Aplikacja Gmail automatycznie tworzy kopie zapasowe twoich danych. Narzędzie możesz powiązać z adresem e‑mail we własnej domenie. Pocztę dla firm od Google masz prawo testować przez 14 dni za darmo.
• Tutanota – to zdecydowanie mniej znana, ale również godna uwagi usługa. Poczta jest bezpieczna, a to m.in. dzięki szyfrowaniu end-to-end i 2FA. Twoje wiadomości nie mogą być przez nikogo odczytane. Z serwisu możesz korzystać zarówno na urządzeniach mobilnych, jak i na komputerze. Firma stale pracuje nad zabezpieczeniami, żeby ograniczyć do minimum ilość SPAM-u otrzymywanego przez użytkowników. To ciekawa oferta, którą warto rozważyć.
• Zoho – alternatywą dla powyższych rozwiązań jest Zoho, które jednak cieszy się zdecydowanie mniejszą popularnością niż wymienione powyżej usługi. W sieci można znaleźć informacje, że liczba użytkowników tego rozwiązania przekracza 1 mln. Zapewnia ono szyfrowanie wiadomości, a jego skuteczność w zatrzymywaniu SPAM-u, według twórców, przekracza 99,9 proc. Wybierając tę usługę, możesz korzystać z adresów we własnej domenie i korzystać z poczty przez przeglądarkę. Panel administracyjny tego narzędzia wygląda podobnie jak w innych rozwiązaniach o tym samym zastosowaniu.
Wszystkie wymienione webowe programy pocztowe mają swoje plusy i minusy. Warto przetestować przynajmniej dwa z nich, zanim zdecydujesz się na dane rozwiązanie.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Iskra
Dokładnie 50 lat temu, późnym wieczorem 29 października 1969 roku na Uniwersytecie Kalifornijskim w Los Angeles (UCLA) dwóch naukowców prowadziło pozornie nieznaczący eksperyment. Jego konsekwencje ujawniły się dopiero wiele lat później, a skutki pracy profesora Leonarda Kleinrocka i jego studenta Charleya Kline'a odczuwamy do dzisiaj.
Kleinrock i Kline mieli do rozwiązania poważny problem. Chcieli zmusić dwa oddalone od siebie komputery, by wymieniły informacje. To, co dzisiaj wydaje się oczywistością, przed 50 laty było praktycznie nierozwiązanym problemem technicznym. Nierozwiązanym aż do późnego wieczora 29 października 1969 roku.
Jeden ze wspomnianych komputerów znajdował się w UCLA, a drugi w oddalonym o 600 kilometrów Stanford Research Institute (SRI) w Menlo Park. Próby nawiązania łączności trwały wiele godzin. Kline próbował zalogować się do komputera w SRI, zdążył w linii poleceń wpisać jedynie „lo”, gdy jego maszyna uległa awarii. Wymagała ponownego zrestartowania i ustanowienia połączenia. W końcu około godziny 22:30 po wielu nieudanych próbach udało się nawiązać łączność i oba komputery mogły ze sobą „porozmawiać”. Wydaje się jednak, że pierwszą wiadomością wysłaną za pomocą sieci ARPANETu było „lo”.
Trudne początki
Początków ARPANETU możemy szukać w... Związku Radzieckim, a konkretnie w wielkim osiągnięciu, jakim było wystrzelenie Sputnika, pierwszego sztucznego satelity Ziemi. To był dla Amerykanów policzek. Rosjanie pokazali, że pod względem technologicznym nie odstają od Amerykanów. Cztery lata zajęło im nadgonienie nas w technologii bomby atomowej, dziewięć miesięcy gonili nas w dziedzinie bomby wodorowej. Teraz my próbujemy dogonić ich w technice satelitarnej, stwierdził w 1957 roku George Reedy, współpracownik senatora, późniejszego prezydenta, Lyndona Johnsona.
Po wystrzeleniu Sputnika prezydent Eisenhower powołał do życia Advanced Research Project Agency (ARPA), której zadaniem była koordynacja wojskowych projektów badawczo-rozwojowych. ARPA zajmowała się m.in. badaniami związanymi z przestrzenią kosmiczną. Jednak niedługo później powstała NASA, która miała skupiać się na cywilnych badaniach kosmosu, a programy wojskowe rozdysponowano pomiędzy różne wydziały Pentagonu. ARPA zaś, ku zadowoleniu środowisk naukowych, została przekształcona w agencję zajmującą się wysoce ryzykownymi, bardzo przyszłościowymi badaniami o dużym teoretycznym potencjale. Jednym z takich pól badawczych był czysto teoretyczny sektor nauk komputerowych.
Kilka lat później, w 1962 roku, dyrektorem Biura Technik Przetwarzania Informacji (IPTO) w ARPA został błyskotliwy naukowiec Joseph Licklider. Już w 1960 roku w artykule „Man-Computer Symbiosis” uczony stwierdzał, że w przyszłości ludzkie mózgi i maszyny obliczeniowe będą bardzo ściśle ze sobą powiązane. Już wtedy zdawał on sobie sprawę, że komputery staną się ważną częścią ludzkiego życia.
W tych czasach komputery były olbrzymimi, niezwykle drogimi urządzeniami, na które mogły pozwolić sobie jedynie najbogatsze instytucje. Gdy Licklider zaczął pracować dla ARPA szybko zauważył, że aby poradzić sobie z olbrzymimi kosztami związanymi z działaniem centrów zajmujących się badaniami nad komputerami, ARPA musi kupić wyspecjalizowane systemy do podziału czasu. Tego typu systemy pozwalały mniejszym komputerom na jednoczesne łączenie się z wielkim mainframe'em i lepsze wykorzystanie czasu jego procesora. Dzięki nim wielki komputer wykonywać różne zadania zlecane przez wielu operatorów. Zanim takie systemy powstały komputery były siłą rzeczy przypisane do jednego operatora i w czasie, gdy np. wpisywał on ciąg poleceń, moc obliczeniowa maszyny nie była wykorzystywana, co było oczywistym marnowaniem jej zasobów i pieniędzy wydanych na zbudowanie i utrzymanie mainframe’a.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Dokładnie przed 50 laty, 29 października 1969 roku, dwaj naukowcy z Uniwersytetu Kalifornijskiego w Los Angeles, wykorzystali nowo powstałą, rewolucyjną sieć ARPANET, do przesłania pierwszej wiadomości. Po wielu nieudanych próbach około godziny 22:30 udało się zalogować do komputera w oddalonym o 600 kilometrów Stanford Research Institute.
Wieloletnia podróż, która rozpoczęła się od... wysłania Sputnika przez Związek Radziecki i trwa do dzisiaj w postaci współczesnego internetu, to fascynująca historia genialnych pomysłów, uporu, porażek i ciężkiej pracy wielu utalentowanych ludzi. Ludzi, wśród których niepoślednią rolę odegrał nasz rodak Paul Baran.
To, co rozpoczęło się od zimnowojennej rywalizacji atomowych mocarstw, jest obecnie narzędziem, z którego na co dzień korzysta ponad połowa ludzkości. W ciągu pół wieku przeszliśmy od olbrzymich mainframe'ów obsługiwanych z dedykowanych konsol przez niewielką grupę specjalistów, po łączące się z globalną siecią zegarki, lodówki i telewizory, które potrafi obsłużyć dziecko.
Zapraszamy do zapoznania się z fascynującą historią internetu, jednego z największych wynalazków ludzkości.
« powrót do artykułu -
przez Mariusz Błoński
Jako, że ostatnimi czasy zrobiło się średnio wesolo, zaczęliśmy zastanawiać się nad wprowadzeniem mailingu. Wyrażenie zgody byłoby dobrowolne, ale odbywałoby się nieco naokoło (tak działa forum). Każda nowo zapisująca się osoba oraz osoby już zarejestrowane będzie musiała zaakceptowac regulamin, który zezwala na wysyłanie użytkownikowi mailingu, jednocześnie określi on adres, pod którym opcja mailingowa będzie mogła być wyłączona.
Jakie jest Wasze zdanie?
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.