Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

7 gramów na wyszukanie

Recommended Posts

Alex Wissner-Gross, naukowiec z Uniwersytetu Harvarda, jest jednym z akademików, którzy badają wpływ nowoczesnych technologii na środowisko naturalne. Z jego obliczeń wynika, że zadanie wyszukiwarce Google dwóch zapytań powoduje emisję do atmosfery tyle dwutlenku węgla, co zagotowanie czajnika wody. Zdaniem Wissnera-Grossa, przeciętne wyszukiwanie w Google'u to równowartość 7 gramów CO2 trafiających do atmosfery.

Naukowiec mówi, że tak duża emisja spowodowana jest zużycie energii przez komputer użytkownika oraz, przede wszystkim, przez centra bazodanowe Google'a. Najpopularniejsza wyszukiwarka na świecie działa bardzo sprawnie i szybko, jednak jest to możliwe dzięki wykorzystywaniu dużych zasobów do obsługi pojedynczego zapytania. Dlatego też charakteryzuje się większym zużyciem energii i, co za tym idzie, większą emisją CO2 niż niektórzy jej konkurenci.

Ponadto, jak wylicza Wissner-Gross, na każdą sekundę spędzoną w Sieci przypada emisja rzędu 0,02 grama dwutlenku węgla na komputer.

Przedstawiciele Google'a, odnosząc się do wyników uczonego, stwierdzili, że biorą pod uwagę wpływ swojej firmy na środowisko naturalne i budują najbardziej energooszczędne centra bazodanowe na świecie.

Share this post


Link to post
Share on other sites

Jakaś mania na ten CO2 czy co ??? Czego by się nie dotknąć to emituje dwutlenek węgla do atmosfery. Najlepiej to nie używać niczego. Cofnijmy się do epoki kamienia łupanego. Będzie ekologicznie. Nie, żeby mi nie zależało na przyrodzie, ale mam wrażenie, że wszystko co ma związek z komputerami i nowymi technologiami uważa się za  "zło". BTW: Szkoda, że pan Alex nie obliczył ile CO2 wyemitował do atmosfery podczas przeprowadzania tych badań.

Share this post


Link to post
Share on other sites

Już ten news dziś dwa razy komentowałem… Aż się nie chce już… Więc tylko dwie uwagi: centra danych i tak pracują i zużywają ileś tam energii, nawet jeśli nie wysyłamy do nich zapytań. I jak zauważył ktoś inny, zamiast użyć wyszukiwarki możemy wsiąść do samochodu i pojechać sprawdzić w bibliotece, albo (rozkład jazdy) na dworcu… ekologiczniej?

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Przed sądem federalnym w San Jose złożono pozew zbiorowy przeciwko Google'owi. Autorzy pozwu oskarżają wyszukiwarkowego giganta o to, że zbiera informacje o internautach mimo iż używają oni trybu prywatnego przeglądarki. Uważają, że Google powinien zapłacić co najmniej 5 miliardów dolarów grzywny.
      Zdaniem autorów pozwu problem dotyczy milionów osób, a za każde naruszenie odpowiednich ustaw federalnych oraz stanowych koncern powinien zapłacić co najmniej 5000 USD użytkownikowi, którego prawa zostały naruszone.
      W pozwie czytamy, że Google zbiera dane za pomocą Google Analytics, Google Ad Managera i innych aplikacji oraz dodatków, niezależnie od tego, czy użytkownik klikał na reklamy Google'a. Google nie może w sposóby skryty i nieautoryzowany gromadzić danych na temat każdego Amerykanina, który posiada komputer lub telefon, piszą autorzy pozwu.
      Do zarzutów odniósł się Jose Castaneda, rzecznik prasowy koncernu. Za każdym razem, gdy użytkownik uruchamia przeglądarkę w trybie prywatnym, jest jasno informowany, że przeglądane witryny mogą śledzić jego poczynania, stwierdził.
      Specjaliści ds. bezpieczeństwa od dawna zwracają uwagę, że użytkownicy uznają tryb prywatny za całkowicie zabezpieczony przez śledzeniem, jednak w rzeczywistości takie firmy jak Google są w stanie nadal zbierać dane o użytkowniku i, łącząc je z danymi z publicznego trybu surfowania, doprecyzowywać informacje na temat internautów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Już wkrótce elektrownia węglowa Dry Fork znajdująca się w pobliżu miasteczka Gillette w stanie Wyoming będzie wykorzystywała dwutlenek węgla do produkcji materiałów budowlanych. W marcu w elektrowni rozpoczyna się program pilotażowy, w ramach którego CO2 będzie zmieniane w betonowe bloczki.
      Eksperyment prowadzony będzie przez naukowców z Uniwersytetu Kalifornijskiego w Los Angeles (UCLA). Przez try miesiące każdego dnia będą oni odzyskiwali 0,5 tony dwutlenku węgla i wytwarzali 10 ton betonu. To pierwszy system tego typu. Chcemy pokazać, że można go skalować, mówi profesor Gaurav Sant, który przewodzi zespołowi badawczemu.
      Carbon Upcycling UCLA to jeden z 10 zespołów biorących udział a ostatnim etapie zawodów NRG COSIA Carbon XPrize. To ogólnoświatowe zawody, których uczestnicy mają za zadanie opracować przełomową technologię pozwalającą na zamianę emitowanego do atmosfery węgla na użyteczny materiał.
      W Wyoming są jeszcze cztery inne zespoły, w tym kanadyjski i szkocki. Pozostałych pięć drużyn pracuje w elektrowni gazowej w Kanadzie. Wszyscy rywalizują o główną nagrodę w wysokości 7,5 miliona dolarów. Zawody zostaną rozstrzygnięte we wrześniu.
      Prace UCLA nad nową technologią rozpoczęto przed około 6laty, gdy naukowcy przyjrzeli się składowi chemicznemu... Wału Hadriana. Ten wybudowany w II wieku naszej ery wał miał bronić Brytanii przed najazdami Piktów.
      Rzymianie budowali mur mieszając tlenek wapnia z wodą, a następnie pozwalając mieszaninie na absorbowanie CO2 z atmosfery. W ten sposób powstawał wapień. Proces taki trwa jednak wiele lat. Zbyt długo, jak na współczesne standardy. Chcieliśmy wiedzieć, czy reakcje te uda się przyspieszyć, mówi Guarav Sant.
      Rozwiązaniem problemu okazał się portlandyt, czyli wodorotlenek wapnia. Łączy się go z kruszywem budowlanym i innymi materiałami, uzyskując wstępny materiał budowlany. Następnie całość trafia do reaktora, gdzie wchodzi w kontakt z gazami z komina elektrowni. W ten sposób szybko powstaje cement. Sant porównuje cały proces do pieczenia ciastek. Mamy oto bowiem mokre „ciasto”, które pod wpływem temperatury i CO2 z gazów kominowych zamienia się w użyteczny produkt.
      Technologia UCLA jest unikatowa na skalę światową, gdyż nie wymaga kosztownego etapu przechwytywania i oczyszczania CO2. To jedyna technologia, która bezpośrednio wykorzystuje gazy z komina.
      Po testach w Wyoming cała instalacja zostanie rozmontowana i przewieziona do National Carbon Capture Center w Alabamie. To instalacja badawcza Departamentu Energii. Tam zostanie poddana kolejnym trzymiesięcznym testom.
      Na całym świecie wiele firm i grup naukowych próbuje przechwytywać CO2 i albo go składować, albo zamieniać w użyteczne produkty. Jak wynika z analizy przeprowadzonej przez organizację Carbon180, potencjalna wartość światowego rynku odpadowego dwutlenku węgla wynosi 5,9 biliona dolarów rocznie, w tym 1,3 biliona to produkty takie jak cementy, asfalty i kruszywa budowlane. Zapotrzebowanie na takie materiały ciągle rośnie, a jednocześnie coraz silniejszy akcent jest kładziony na redukcję ilości węgla trafiającego do atmosfery. To zaś tworzy okazję dla przedsiębiorstw, które mogą zacząć zarabiać na przechwyconym dwutlenku węgla.
      Cement ma szczególnie duży ślad węglowy, gdyż jego produkcja wymaga dużych ilości energii. Każdego roku na świecie produkuje się 4 miliardy ton cementu, a przemysł ten generuje około 8% światowej emisji CO2. Przemysł cementowy jest tym, który szczególnie trudno zdekarbonizować, brak więc obecnie efektywnych rozwiązań pozwalających na zmniejszenie emisji węgla. Technologie wykorzystujące przechwycony CO2 mogą więc wypełnić tę lukę.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Google podsumowało jedną z najbardziej długotrwałych wojen, jaką stoczyło ze szkodliwym oprogramowaniem. W ciągu ostatnich trzech lat firma usunęła ponad 1700 aplikacji zarażonych różnymi odmianami szkodliwego kodu o nazwie Bread (Joker).
      Jego twórcy byli wyjątkowo uparci. Zwykle autorzy szkodliwego kodu przestają go wgrywać do Play Store gdy tylko zostanie on wykryty przez Google'a. Przestępcy stojący za Bread'em nie poddali się tak łatwo. Działali przez ponad trzy lata i co tydzień przygotowywali nową wersję szkodliwego kodu.
      Przez te trzy lata stosowali tę samą technikę – wprowadzali w kodzie serię niewielkich zmian, licząc na to, że uda się oszukać stosowane przez Google'a mechanizmy obronne. Zwykle się nie udawało, ale czasami przestępcy odnosili sukces. Na przykład we wrześniu ubiegłego roku ekspert ds. bezpieczeństwa, Aleksejs Kurpins znalazł w Play Store 24 różne aplikacje zarażone Jokerem. W październiku inny ekspert znalazł kolejną aplikację, a kilka dni później Trend Micro poinformował o odkryciu kolejnych 29 kolejnych zarażonych programów. Później znajdowano kolejne, w tym arkusze kalkulacyjne Google Docs.
      Jednak w większości wypadków mechanizmy Google'a działały dobrze i zablokowały ponad 1700 aplikacji, które miały zostać umieszczone w Play Store. Jak dowiadujemy się z wpisu na oficjalnym blogu, w pewnym momencie hakerzy użyli niemal każdej znanej techniki, by ukryć kod. Zwykle przestępcy posługiwali się jednorazowo 3–4 wariantami szkodliwego kodu. Jednak pewnego dnia próbowali wgrać aplikacja zarażone w sumie 23 odmianami kodu.
      Najbardziej skuteczną techniką zastosowaną przez twórców szkodliwego kodu było wgranie najpierw czystej aplikacji do Play Store, a następnie rozbudowywanie jej za pomocą aktualizacji zawierających już szkodliwy kod. Przestępcy nie ograniczali się jedynie do tego. Umieszczali na YouTube filmy z recenzjami, które miały zachęcić internautów do instalowania szkodliwych aplikacji.
      Jak informuje Google, twórcy Breada działali dla korzyści finansowych. Pierwsze wersje ich szkodliwego kodu miały za zadanie wysyłać SMS-y premium, z których przestępcy czerpali korzyści. Gdy Google zaostrzył reguły dotyczące korzystania przez androidowe aplikacje z SMS-ów, przestępcy przerzucili się na WAP fraud. Telefon ofiary łączył się za pomocą protokołu WAP i dokonywał opłat, którymi obciążany był rachunek telefoniczny. Ten typ ataku był popularny na na przełomie pierwszego i drugiego dziesięciolecia bieżącego wieku. Później praktycznie przestał być stosowany. Nagle, w roku 2017, wystąpił prawdziwy wysyp szkodliwego kodu, który znowu korzystał z tej techniki. Jak twierdzi Google, twórcy Breada byli najbardziej upartą i wytrwałą grupą przestępczą, która używała WAP fraud.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Francuski urząd ds. konkurencji nałożył na Google'a grzywnę w wysokości 150 milionów euro. Koncern został ukarany za zachowania antykonkurencyjne oraz niejasne zasady Google Ads.
      Google naruszył swoją dominującą pozycję na rynku reklamy w wyszukiwarkach poprzez niejasne i trudne do zrozumienia zasady korzystania z platformy Google Ads oraz zastosowanie ich w sposób nieuczciwy i przypadkowy, stwierdzili urzędnicy. Na amerykańską firmę nałożono obowiązek wyjaśnienia zasad działania Google Ads i właściwego uzyskania zgody użytkowników na prezentowanie im spersonalizowanych reklam. Firma ma również przedstawić jasne procedury zawieszania kont oraz opracować procedury informowania, zapobiegania, wykrywania i postępowania w razie wykrycia naruszenia regulaminu Google Ads.
      Przedstawiciele koncernu zapowiedzieli, że odwołają się od decyzji.
      Wiele europejskich krajów bacznie przygląda się działalności amerykańskich gigantów IT. Firmy takie jak Google, Facebook, Apple czy Amazon są wielokrotnie krytykowane za płacenie zbyt niskich podatków. Nie dalej jak we wrześniu bieżącego roku Google porozumiał się z władzami Francji i zgodził się zapłacić niemal miliard euro grzywny w ramach ugody w sprawie do oszustwa podatkowe. Z kolei w styczniu bieżącego roku francuski urząd odpowiedzialny za ochronę danych ukarał koncern grzywną w wysokości 50 milionów euro za naruszenie europejskich przepisów dotyczących prywatności.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Iskra
      Dokładnie 50 lat temu, późnym wieczorem 29 października 1969 roku na Uniwersytecie Kalifornijskim w Los Angeles (UCLA) dwóch naukowców prowadziło pozornie nieznaczący eksperyment. Jego konsekwencje ujawniły się dopiero wiele lat później, a skutki pracy profesora Leonarda Kleinrocka i jego studenta Charleya Kline'a odczuwamy do dzisiaj.
      Kleinrock i Kline mieli do rozwiązania poważny problem. Chcieli zmusić dwa oddalone od siebie komputery, by wymieniły informacje. To, co dzisiaj wydaje się oczywistością, przed 50 laty było praktycznie nierozwiązanym problemem technicznym. Nierozwiązanym aż do późnego wieczora 29 października 1969 roku.
      Jeden ze wspomnianych komputerów znajdował się w UCLA, a drugi w oddalonym o 600 kilometrów Stanford Research Institute (SRI) w Menlo Park. Próby nawiązania łączności trwały wiele godzin. Kline próbował zalogować się do komputera w SRI, zdążył w linii poleceń wpisać jedynie  „lo”, gdy jego maszyna uległa awarii. Wymagała ponownego zrestartowania i ustanowienia połączenia. W końcu około godziny 22:30 po wielu nieudanych próbach udało się nawiązać łączność i oba komputery mogły ze sobą „porozmawiać”. Wydaje się jednak, że pierwszą wiadomością wysłaną za pomocą sieci ARPANETu było „lo”.
       

       
      Trudne początki
      Początków ARPANETU możemy szukać w... Związku Radzieckim, a konkretnie w wielkim osiągnięciu, jakim było wystrzelenie Sputnika, pierwszego sztucznego satelity Ziemi. To był dla Amerykanów policzek. Rosjanie pokazali, że pod względem technologicznym nie odstają od Amerykanów. Cztery lata zajęło im nadgonienie nas w technologii bomby atomowej, dziewięć miesięcy gonili nas w dziedzinie bomby wodorowej. Teraz my próbujemy dogonić ich w technice satelitarnej, stwierdził w 1957 roku George Reedy, współpracownik senatora, późniejszego prezydenta, Lyndona Johnsona.
      Po wystrzeleniu Sputnika prezydent Eisenhower powołał do życia Advanced Research Project Agency (ARPA), której zadaniem była koordynacja wojskowych projektów badawczo-rozwojowych. ARPA zajmowała się m.in. badaniami związanymi z przestrzenią kosmiczną. Jednak niedługo później powstała NASA, która miała skupiać się na cywilnych badaniach kosmosu, a programy wojskowe rozdysponowano pomiędzy różne wydziały Pentagonu. ARPA zaś, ku zadowoleniu środowisk naukowych, została przekształcona w agencję zajmującą się wysoce ryzykownymi, bardzo przyszłościowymi badaniami o dużym teoretycznym potencjale. Jednym z takich pól badawczych był czysto teoretyczny sektor nauk komputerowych.
      Kilka lat później, w 1962 roku, dyrektorem Biura Technik Przetwarzania Informacji (IPTO) w ARPA został błyskotliwy naukowiec Joseph Licklider. Już w 1960 roku w artykule „Man-Computer Symbiosis” uczony stwierdzał, że w przyszłości ludzkie mózgi i maszyny obliczeniowe będą bardzo ściśle ze sobą powiązane. Już wtedy zdawał on sobie sprawę, że komputery staną się ważną częścią ludzkiego życia.
      W tych czasach komputery były olbrzymimi, niezwykle drogimi urządzeniami, na które mogły pozwolić sobie jedynie najbogatsze instytucje. Gdy Licklider zaczął pracować dla ARPA szybko zauważył, że aby poradzić sobie z olbrzymimi kosztami związanymi z działaniem centrów zajmujących się badaniami nad komputerami, ARPA musi kupić wyspecjalizowane systemy do podziału czasu. Tego typu systemy pozwalały mniejszym komputerom na jednoczesne łączenie się z wielkim mainframe'em i lepsze wykorzystanie czasu jego procesora. Dzięki nim wielki komputer wykonywać różne zadania zlecane przez wielu operatorów. Zanim takie systemy powstały komputery były siłą rzeczy przypisane do jednego operatora i w czasie, gdy np. wpisywał on ciąg poleceń, moc obliczeniowa maszyny nie była wykorzystywana, co było oczywistym marnowaniem jej zasobów i pieniędzy wydanych na zbudowanie i utrzymanie mainframe’a.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...