Skocz do zawartości
Forum Kopalni Wiedzy

Tolo

Użytkownicy
  • Liczba zawartości

    955
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    9

Odpowiedzi dodane przez Tolo


  1. Na tym właśnie polega problem ze naukowcy zajmują sie dalej odkrywaniem koła udając ze inne są kwadratowe a ich najokrąglejsze z okrągłych i nie ważne że próbują je przypiąć do sanek.

     

    Rozwiązanie technicznie do d*py bo każdy taki układ potrzebował by łączność i teraz zawiesił się tepsiany ruter nie działa lodówka, nie mamy zasięgu gsm nie odpalimy samochodu ;)

     

    Kolejna sprawa podczas reengineeringu takiego układu można go poprawić tak żeby się już nie łączył szczególnie mając plany. Chińczycy nie tylko kopiują ale i sami tworzą zresztą żeby skopiować taki układ trzeba mieć wiedzę, zresztą tego nie robią rolnicy w stodołach, prostymi metodami przestało się dać kopiować układy scalone pod koniec lat 70 tych i to wtedy zsrr spuchło w wyścigu bo kopiowanie zaczęło im zajmować dłużej.

     

    Kolejny problem jest taki ze cześć układów jest standardowa (czy to mikro-kontroler czy FPGA) a to wsad (program) w pamięci czyni różnice i to on determinuje role układu i przy nim koszt układu jest śmieszny. A inżynieria odwrotna nie polega na kopiowaniu układu


  2. Wojny to jest ogólny interes USA i nic im tak nie pomaga jak rozpętanie jakiejś wojenki. Problem pojawi się jak nie będzie gdzie następnej rozpętać. Obecny kształt NSA oznacza wprost to ze za Busha nic się nie zmieniło. Podobnie jest z Obama. To zresztą tak samo jak było z CIA przyszedł Kennedy i już siedział na minie w postaci inwazji w Zatoce Świń.

     

    Pytanie tylko jest takie czy to był przypadek w sensie NSA jako organizm wytworzyło już własny system immunologiczny czy po prostu dostali zielone światło na wygłupy.

    Jak by chicano to by z tym pożądek zrobiono tak czy inaczej po prostu nie chciano. Snowden pokazuje jaka ot jest kupa g..a być może dla tego z jednej strony NSA się samo kryło a z drugiej nikt tego bagna nie chciał ruszać.

     

    Zresztą w całej tej inwigilacji wcale nie chodzi o terroryzm tylko o interesy dla tego właśnie nasi posłowie biegają z tabletami apple i tak dalej. Merkel też podsłuchiwali przecież nie dla tego ze była terrorystka a dla tego ze ma za sobą potencjał militarny i gospodarczy który pozwala jej na prowadzenie w mare autonomiczne polityki zagranicznej.

    Konstytucja to najmniejszy problem w zasadzie zrobili z nej nic w momencie jak ukradli amerykanom całe złoto i dali papierowe pieniądze. Później leci już z górki. Poza tym cała ta demokracja w USA to fake. To już dano nie jest państwo swoich obywateli. A kwiatki takie jak NSA i tak dalej to tylko wierzchołek góry lodowej.


  3. A co im pozostaje?

    Zauważcie ze taka strategia ma sens niezależnie od tego czy współpracowali świadomie czy nie. Zauważcie ze to żeby się to nie odbiło na tych firmach w kwestii ilości userów to jest też interes NSA.

    Co do tego Obamy w artykule to on tu jest raczej do bicia To Bush im popuścił śrubę Obama po poprzedniku nie posprzątał.

    Co do tego ze firma współpracowała to sprawa jest też nie do końca prosta bo firma wcale nie musiała starczyło ze kilku pracowników za pieniążki albo za nieujawnianie zdjęć z kochanka zrobiło to czy owo podjęli taką a nie inną decyzje w ramach kompetencji swojego stanowiska i w skali makro to sie kręciło. Ale to nie zmienia faktu że to było działanie wbrew klientom firmy i tak to należy rozpatrywać. To firma ponosi odpowiedzialność za swoich pracowników bo sama firma to jest nic.

     

    Zresztą jakiś czas temu służby USA ostrzegały przed urządzeniami np huawei pewnie sie bali ze inni robią to samo co oni ;)

     

    Usher

    Jak sobie wyobrażasz ze ktoś się pod coś podpiął bez wpół pracy co najmniej adminów?

     

    Wilk

    ad1 w pewnym zakresie na pewno tak czy w pełnym nie wiadomo.

    ad2 na pewno nie wszyscy chcieli od razu część musiała dostać jakiś nakaz na papierze.

    ad3 w te rzekome wprowadzania w błąd to ja nie wierze, już jakiś czas temu było o dziurawym generatorze liczb losowych w XP.

    ad4 to bardzo źle świadczy i o technikach i o ich przełożonych. Zresztą mogą to być też etatowi pracownicy służb.

    ad5 no na pewno tak właśnie robili tylko ze to metoda dość mało skuteczna wiec na pewno nie jedyna.


  4. Tu tez chyba zadziała taki efekt ze w przypadku takiego klatkowania zawodnik jest się w stanie lepiej nauczyć zachowania krążka. Ma ruch skonkretyzowany i pozycja takiego krążka przyjmuje dyskretne wartości w danym momencie co pozwala wypracować ze tak powiem precyzyjniejszy mechanizm predykcji. I nawet jak dostaje bodźce w formie ciągłej ma lepszą synchronizacje i świadomość ruchu. Tzn poprawia mu sie ocena sytuacji która wypracował na danych dyskretnych bo jak trenuje na danych ciągłych ma dodatkowa niepewność.


  5. Jest to w sumie ciekawe.

    A wniosek jest taki ze na starość jak dożyjemy trzeba sp***rzać w tropiki.

     

    pogo globalne ocieplenie zmieni co najwyżej redystrybucje dóbr. Ale sąd wiesz czy nad Saharą dzięki go nie pojawią ie ulewne deszcze?

    Jedno jest pewne ograniczenia związanie z GO maja udupić młode gospodarki które mogły by się w najbliższym czasie szybko rozwijać dzięki niskim kosztom pracy i dostępności surowców i prześcignąć pewne inne. a stary pożądek musi być utrzymany. I jeździmy tu na tym samym wózku razem z murzynkami z afryki czy Hindusami.


  6. Sig

    tam gdzie się to nada to już jest ;)

     

     

    Po pierwsze istnieją różne X-y czyli punkty wymiany ruchu

    TPIX (tpsa), KIX (KIKE), EPIX (E-Południe), Think IX (ATMAN), PLIX, CIX I tak dalej, O mniejszych lub większych zasobach i obszarze.

     

     

    To są akurat polskie ale są tez zagraniczne np Frankfurt.

    I teraz idea jest tego taka ze tam się ludzie ruchem wymieniają. Co to daje a no to ze ktoś kto jest wpięty pośrednio do takiego ixa (zależnie od operatora ostatniej mili) Ma dostęp do tego co w takim punkcie jest.

    Innymi słowy wygląda to na przykład tak ze user jakiejś osiedlowej kablówki ma łącze powiedzmy 2 megabity "internetu" ale to jest 2 megabity w praktyce wychodzące płatnym kanałem (oczywiście jest to w praktyce overseling ale mniejsza o to) czyli do zasobów których nie ma w tych punktach wymiany. A do zasobów w punkcie wymiany w tym do klientów innej osiedlówki jest grubo wyższy BW taki jak pozwala infrastruktura.

    Wiec sieć p2p może działać bez wychodzenia na zewnątrz.

    I teraz różnym innym zależy by być dostępnym w takich punktach wymiany. Bo firma X czy Y kupując dostęp do internetu dla swoich usług tez płaci za pasmo. Jak będzie w takim Xie to zmniejsza swój płatny BW bo klienci w ramach punktu wymiany dostępni są w cenie wpięcia do węzła. Poza tym często w takim węźle dostępne są również inne zasoby (węzły).

    Przykładem czegoś takiego może być google. Google dywersyfikuje swoją infrastrukturę i ma coś takiego jak google global cache chodzi o to ze swoje nody pakują w różne miejsca i one cacheuja zapytania. I teraz google stara się żeby te nody były dostępne w praktyce oznacza to ze im bliżej klienta tym lepiej. I teraz taki GWC jest wpinany do takiego punktu wymiany i w ramach lokalnych zasobów jest dostępny w tej sieci właśnie cachowany YT. Operatorzy tez dążą do tego żeby mieć w ramach dostępnej infrastruktury taki GWC lub wymieniać ze z takim węzłem gdzie jest dostępny. A korzyć dla operatorów jest taka ze nawet jak nie jest dostępny to google łączy się swoim kanałem z reszta swojej infrastruktury wiec nawet zasoby niecacheowane nie połykają pasma na zewnątrz bo zostają lokalnie.

     

    Wiec mój wniosek jest taki ze znowu naukowcy z urzędasami który byli w d...e i g..o widzieli na siłe za moje porubuja wynajdywac koło.

    Jest jeszcze jedne porblem kto i w jaki sposób bedzie wtedy płacił za infrastrukture szkieletową teraz dokładaja sie do tego firmy hostingowe i DC i to dość grubo.


  7. Bez sensu

     

    Wilk to jest rozwieszanie problemu szpiegowania ;)

     

    Ogólnie pomysł jest kichowaty.

     

    Po pierwsze problem jest nieco wydumany. Bo awarie sieci nie zdażają sie aż tak często. Usługodawcy muszą utrzymywać redundantną infrastrukturę na różnych poziomach. Człowieczek nie. Taka siec zniesie małe fuckupy ale duży ja położy. A do działania i tak potrzebne jest wsparcie operatorów którzy na opłatach za ruch zarabiają a kasują za nie dostawców kontentu nie odbiorców.

     

    Po drugie to nie tylko problem łacza ale również pojemności nośników. Dla czego użytkownik miał by płacić za hostowanie czyiś danych swoim miejscem na hdd?

     

    Po trzecie taki internet nie będzi bardziej odporny na awarie niz jest teraz jak będzie jakiś większy fuckup to sie okaże ze cześć zasobu jest niedostępna.

     

    Po czwarte jak sobie wyobraacie aktualizacje tego ? to sie nadaje do prostych rzeczy tak działają systemy DNS jednak rozgłoszenie trwa do 24 godzin. Taki system musi mieć opcje aktualizacji rozproszonych danych a to daje opcje na atak który nazwie sobie distributet ontime actualisation.

    Innymi słowy jakaś grupa ludzi buduje jakiś zasób i o ustalonym czasie go aktualizuje żeby zapchać sieć wymiana informacji o aktualizacji.

    A żeby lepiej to zadziałało to jeszcze by trzeba rozkręcić jakiś aktualizacyjny oscylator.

     

    Po piąte tak można wymieniać pliki ale jak na tej zasadzie tworzyć treści dynamiczne? To jest powrót do początku internetu gdy serwery były dostarczycielami statycznych treści


  8. Gaz łupkowy nie jest tani !!!

    Wydobycie gazu łupkowego opłaca sie tylko powyżej pewnej ceny za gaz dopiero jak cena gazu przekroczyła pewien poziom zaczęło się opłacać wydobcie tego gazu. Podobnie jak z łupkami bitumicznymi jest tego w 3 .... ale dopiero od niedawna zaczęło się opłacać je wydobywać.

     

    Globalnie elektrownia atomowa jest zdrowsza a wpadki zdarzają sie zawsze. Jednak gaz ziemny będzie produkował zawsze CO2 jest tylko zdrowszy od węgla. Zresztą taka ciekawostka popiół po spaleniu węgla jest promieniotwórczy.

     

    Łupki maja inny plus dla USA to więcej miejsc pracy jak w przypadku energetyki atomowej.

     

    Elektrownie wiatrowe się opłacają tylko dla tego ze są wymogi i elektrownia musi produkować ileś procent zielonej energii efekt jest taki ze zielona energia jest kupowana powyżej ceny sprzedaży. Dodatkowo jest to silnie dotowane tak jak energia słoneczna to ma być stymulacja rynku wewnętrznego UE dla tego tak wszyscy się wkurzają jak przyjednają tanie panele z chin i są w UE sprzedawane po cenach rynkowych.

    Słońce ma tez ten problem ze jak świeci to akurat mnij prądu potrzeba a magazynowanie prądu jest bardziej skomplikowane , obarczone stratami i pewnie droższe niż wyprodukowanie. Acz niestety konieczne dla zbilansowania systemu energetycznego tu fajnym przykładem są elektrownie szczytowo pompowe które najpierw pompują w górę a potem jak potrzeba to produkują prąd w szczycie.


  9. Usher

    Takie zsynchronizowanie systemów to nie problem. Poza tym zawsze jeśli HTC chciało by iść tą droga może postawić M$ warunek ze to ma tak działać i h.... Tu macie dokumentacje zróbcie ... Na za tydzień.

     

    Z tymi developerami chodzi o to ze dostaną platforme testową dwusystemowa za darmo. Wiec co któryś jeśli tego jeszcze nie czyni może wpaść na genialny pomysł żeby cos swojego na M$ sportować. Nie tak dawno M$ miał jakiś konkurs czy coś gdzie autorom apek które zarobiły dla autora ileś tam płacił żywą gotówkę.

     

    Generalnie bariera w zabawach na Windows Mobile jest telefon. Tak jak w przypadku androida i apple. Ale o ile w przypadku androida można klepać pod Ubuntu czy Windą a nawet pewnie pod IOS o tyle w przypadku MS to już wirtualna lub natywny Windows . W przypadku apple jest jeszcze gorzej bo żeby było tak jak sobie wymyślił to producent to trzeba do tego jeszcze applowską platforme sprzętową.


  10. Ale coś tu jest nie tak co obwód noki zmagazynował energie i oddał bateri?

    O co kaman.

     

    Przecież takie wyładowanie nie trwa wiecznie ile przez taką chwile się taki telefon naładuje? To by musiał chyba chwile jednak trwać.

    Najprawdopodobniej układ ładowania albo wyłapał fale elektromagnetyczna albo dostał strzała z wysokiego napięcia i mimo tego ze była wielka różnica potencjałowi nie dostał przebicia i w piku był stanie ustabilizować prąd do oczekiwanej wartości. Ale to ze obwód wytrzymał i nie usmażyło go chwilowe przeciążenie nie znaczy ze jest to w stanie wytrzymać w trybie ciągłym na przykład po podłączeniu do spawarki.

    Poza tym przy takich wyładowaniach powstaje chyba tlen atomowy czy tam ozon nawet a to chyba najzdrowsze nie jest.


  11. Dramatyzujecie z tym miejscem to nie jest aż tak strasznie drogie.

    Poza tym pewna cześć przestrzeni usera może być uwspólniona tak by systemy były zsynchronizowane tak by można używać nawet dwóch jednocześnie.

    To by było niezłe rozwiązanie dla developerów jedna maszynka dwa testowe systemy.

     

    Microsoft che się wbić na rynek i nawet byli by skłonni do tego interesu dopłacić tylko po to żeby zwiększy udział w rynku który sobie już jakoś zdyskontują.

    Microsoft chce puki co się wbić do tej piaskownicy bo na razie stoi na brzegu i o babkach z piasku marzy.


  12. Dyski mechaniczne chyba szybko nie umrą.

     

    Wszystko zależy od tego co kto potrzebuje

    W macierzy na backup nie ma potrzeby wielkiej wydajności potrzebna jest pojemnośc w zastosowaniach enterprise pracują urządzenia taśmowe i jest wszytko ok. Nikt o IOPSach nie jojczy.

     

    W przypadku bazy danych SSD jest jak najbardziej wskazane ale nie 60 GB bo to chyba do domowych zabaw.

    Magia SSD w zastosowaniach enterprise polega na tym ze one wylądują na śmietniku/allegro/ebay zanim się zdążą zepsuć, skończy sie leasing i papa.

    Bo po pierwsze czas użytkowania sprzętu jest relatywnie krótki po drugie nie opłaca się żeby mały dysk miejsce w case (powiedzmy po polsku szufladzie/kieszeni) zajmował jak może tam być większy efektywność wykorzystania miejsca w szafie sie kłania.

    SSD wsparte odpowiednią polityka backupu w niczym nie przeszkadza nawet jak go .... strzeli jest backup i po kaszlu.

    Przy bazach ostro IOPSy lecą i to jest problem dysków mechanicznych.

    Przy dobrych dyskach ssd jest jednak error bo przy bo problemem staje sie interface czy sata czy sas. I jak w serwerze do jednego backplane jest podłączone kilka dysków i to wychodzi na jednym interface sas to różowo byc nie musi.

    Do domu SSd na system a zwykły na dane. Do laptopów to sie terz sprawdza ale SSd najlepiej na PCI-e.

    Mozna oczywiście mieć w laptopie tylko ssd ale ja osobiście raczej odradzam.


  13. Złacz epoinno być zestandaryzowanie ityle i to nie tylko dla telefonów ale dla ruterów switchy i hgw czego jeszcze.

     

    Argumenty o ekologi sa jaknajbardzij słuszne mam karton ładowarek dosłownie karton po drukarce. To nie żart, a wnim kila ładowrek do noki mała wtyczka gruba wtyczka jakies motrole siemensy do tego jakies zasilacze z aparatów z ładowarek do akumulatorków switchy ruterów i innego badziewia wszelkiej maści.

     

    Wnioski moje są następujące złącze powinno być silnie standaryzowane powinny być 3 standardy złącz.

     

    Małe do telefonów na 5 V ale nie małe usb bo ta wtyczka jest do bani i za małowydajna prądowa. Wtyk zasilania powinien być raczej wtykiem dedykowanym i powinien uwzględniać identyfikacje uradzeń wzajemnie.

     

    Drugi wtyk to wtyk nieco większy 12V dla różnorodnej elektroniki czy urządzeń wyposażonych w silniczki.

     

    Trzeci typ to złącze zestandaryzowane dla laptopów z napięciem gdzieś w granicach 19-21 V

     

    Złącza 2 i 3 można by połączyć w jedno złącze o regulowanym napięciu gdzie odbiornik informował by o tym ładowarkę w oparciu o linie sygnałową.

     

    Jak się applowi nie specjalnie podoba to zawsze może jakieś swoje standardy w zakresie wtyczki gniazdka spróbować promować tak żeby każdy sobie mógł takie hipsterskie gniazdko w domu zmontować.

     

    Zdanie powyżej jest w poradzeniem do prostej kwestii dla czego jeden koniec ładowarki jest zestandaryzowany i to dla wszystkich jest norma i żaden producent nie uskutecznia wygłupów i dostosowuje się nie tylko do lokalnej wtyczki ale i do lokalnych paramentów sieciowych.

    Pomyślcie jak takie standardowe gniazdko ogranicz możliwości apple. jedne koniec jest opisany standardami a wręcz wymogami deklaracjami zgodności i innymi a na drugim końcu tego samego kija wolna amerykanka.


  14. Kretyn

    To są dwie rzeczy sam test na obecności narkotyków da ci wynik pozytywny. Natomiast przejście testu na obecność narkotyków oznacza jego pozytywne zaliczenie czyli negatywny wynik na obecność narkotyku czyli negatywny wynik testu na to czy tamto. Raz test narkotykowy znaczy czynność której poddawani sa pracownicy a raz sama metoda tego testu (narzędzie). A test jest w zasadzie na nieobecność narkotyków bo to nieobecność oznacza pozytywny wynik czyli dopuszczenie do dalszej pracy na danym stanowisku na przykład.


  15. O pokićkało mi sie z bitowością.

    Natomiast tutaj nie chodzi o porównywanie bo 4004 to był procesor do kalkulatora. Chodzi o to ze w czasie gdy komercyjni producenci próbowali wystrugać koło z drzewa które okazało się być krokiem milowym już to rok wcześniej spece niejawni budowali rowery na alumach.

    To pokazuje potencjalną przepaść która dzieli to co myślimy ze ma nsa od tego co ma w rzeczywistości.

     

    Jak by nie koncepcja 4004 to nikt nie przewidział by komputerów domowych bo koncepcja procesora była tu kluczowa (chodzi o ujęcie troszku filozoficzne;) ) starczy ze w kilku miejscach nsa jest o krok do przodu i juz potrafią więcej niz większośc z nas jest sobie w stanie wyobrazić bo brakuje nam szczebelka drabiny w rozumowaniu którego nie przeskoczymy.70 ty rok był ponad 40 lat temu. Potem było jeszcze 20 lat zimniej wojny. Rozwój w sferze cywilnej nawet niezależny od militarnej dla tej drugiej tez stanowi punkt wyjścia


  16. Nie ma pewności ze same algorytmy są bezpieczne (ujmując to dość szeroko) z różnych powodów.

    Po pierwsze NAS nie raz i nie dwa maczała palce w różnych algorytmach.

    Na przykład NSA udostępnia tez gotowe polityki bezpieczeństwa dla Windows

    Po drugie nie wiadomo jakie są rzeczywiste możliwości obliczeniowe NSA klucz uważany za bezpieczny w warunkach normalnych dla nsa może być do złamania w rozsądnym czasie. I tu do szczęścia może wystarczyć różnica kilku bitów. Przypominam ze nie kdo konca wiadomo na ile nsa jest do przodu w stosunku do nauki oficjalnej i nie jest to sprawa kosmicznych technologi etc oni muszą utrzymywać zawsze jakąś techniczną technologiczna czy inną wyższość to jest konieczne.

     

    Pisałem już tym ale kiedy intel opracowywał procesor 4004 w f14 był już 24 bitowy wielopotokowy. Kryptografia asymetryczna tez powstała za zamkniętymi drzwiami i jeszcze wielu wynalazcom zostanie odebrana plama pierwszeństwa jak różne rzeczy beda odtajniane.

     

    Grzegorz Kraszewski

    A skąd wiesz ze szyfry są dobre? Dla czego zakładasz ze generatory liczb losowych akurat nie są felerne przecież to i tak z definicji ciągi pseudolosowe te wszystkie generatory są okresowe!!

×
×
  • Dodaj nową pozycję...