Skocz do zawartości
Forum Kopalni Wiedzy

Tolo

Użytkownicy
  • Liczba zawartości

    955
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    9

Zawartość dodana przez Tolo

  1. Tolo

    Szybszy Windows

    Panowie ale właśnie w czasach dosa jeden z wymienionych przeze mnie programów (albo oba bo to w zasadzie było chyba nawet to samo) miał taka możliwość by zdefiniować mu kolejność plików jaka ma być po defragmentacji. mikroos Co do tych talerzy to tak sie to odbywa od zawsze tylko ze nie wiem czy z poziomu Windowsa było by możliwe manipulowanie tym, trzeba mieć na uwadze ze dysk twardy jest w stanie maskować swoja rzeczywistą wewnętrzną strukturę fizyczną mapować ją na inna tak jak to ma w miejsce w przypadku relokacji uszkodzonych sektorów. Fizycznie sektor jest gdzieś indziej ale to problem dysku bo na zewnątrz wygląda jak by była to (nazwijmy to tak) strukturą ciągłą. To umieszczanie w jednym pliku tez kiedyś grali nazywało się to drvspace/dblspace to było narzędzie do kompresji dysków które pozwalało zaoszczędzić miejsce tracone w slackspace przy dużej ilości plików (tak pi razy drzwi 0.5 pojemności pojedynczego sektora/plik) i jeszcze troszkę przez kompresje. Problem jednak jest taki ze taki pojedynczy plik ma ten minus ze musi posiadać dodatkowo jakąś wewnętrzna strukturę. Co daje dodatkowy narzut na jego przeszukiwanie. Jak dla mnie to pomysł ten musi oszczędzać czas "mechanicznej pracy" dysku a wiec tak rozmieścić dane na dysku i na tyle mało pofragmentowane by głowica wykonywała jak najmniej przeskoków. W przyadku systemu DOS który wczytywał pliki przy uruchomieniu praktycznie w przewidywalnej sekwencji odpowiednie ułożenie plików i brak fragmentacji miało znaczeni kluczowe ponieważ głowica nie wykonywała dalekich skoków które jeszcze wtedy zdarzało się ze były realizowane przez silniki krokowe a nie voice coil. I dwa identyczne komputery były się w stanie uruchamiać z rożną szybkością. To będzie dla mnie powielenie tego schematu Bo naprawdę jest wiele zapomnianych roziązań które kiedyś były stosowane powszechnie ale poszły w niepamięć.
  2. Tolo

    Szybszy Windows

    Jakoś nie wydaje mi się ze mogło by to być coś bardziej skomplikowanego jak optymalizacja plików w kontekście ich rozmieszczenia. Pewnie odpowiednie ich rozmieszczenie w połączeniu ze stała defragmentacją newralgicznych plików np przed zamknięciem systemu zadba o prędkość. Kiedyś speed disk czy turbo speed disk potrafiły dużo pomóc przy defragmentacji na wolnych dyskach <100 mega jak się umiejętnie poukładało pliki na początku dysku to wolne dyski znacznie przyspieszały Ale to było w czasach fgdzy kazdy pocięty plik wydatnie zwalniał system. Pojawiły się Windowsy komputery przyspieszyły i ludzie o tym zapomnieli tak jak o wirusach w MBR.
  3. Ludzie używają internetu bo jest i jest za darmo płacą jedynie za coś co wydaje im się warte czyli zaspokajające jakaś ich potrzebę i nie ma tego za darmo gdzieś indziej. Poza tym wg mnie najczęściej (jeśli nie jest to działalność bardzo ściśle sprofilowana i przeznaczona dla bardzo wąskiej i hermetycznej grupy odbiorców) mieć więcej userów darmowych niż kilku płacących. Powiedzmy ze założę sobie forum obojętnie jakie napisze kilka artykułów i skasuje ludzi na dzień dobry po 10 PLN rocznie za wjazd. Będzie to pewnie komercyjny sukces jak nasz klasa . Nikt mi nie zapłaci za treść której nie ma a jak nikt nie zapłaci bo treści nie będzie. Ale powiedzmy ze mam już takie forum mnogo userów duża baza wiedzy rozwiązanych problemów jakiś materiałów i tak dalej i nagle śpiewam 10 za rok i jest zonk bo mamy na forum jak wszędzie pewną asymetrie ludzi co wiedzą jest mniej niż tych co chcą wiedzieć i dla tych drugich to jest warte 10 pln ale dla twórców zawartości już nie zbiorą się i pójdą gdzieś indziej i zostanie reszta dla której forum stanie się bezwartościowe lub co najmniej mniej użyteczne. Komercjalizacja newsów też się nie uda bo zaraz będzie to za darom obok. Jedynie gdzie ma to szanse życ to w momencie gdy właściciel ma monopol na zawartość i jest to zawartość wartościowa ale z takim czymś mamy odczynienia stosunkowo rzadko a i grupy docelowe są najczęściej bardzo wąskie. Martwi mnie jednak inna rzecz niestety może się okazać ze w pewnym sensie się mylę i rynek zweryfikuje sama reklamę internetową jako bezwartościową (no powiedzmy wysoce przecenianą) bo tak naprawdę na niej najlepiej zarabiają ci co ją sprzedają najmniej ci co ją kupują a ci co ją oglądają wcale i tu moze leżeć przyczyna załamania się modelu internetu jaki znamy. Bo jak dla mnie reklama w internecie jest rozdmuchana za bardzo jest to dla mnie kolejny balon który pęknie nie wiem tylko z jak wielkim hukiem.
  4. Masz racje ale trwałość mercedesów to jedna z rzeczy która składa się na wartość marki. Dziś nowego mercedesa kupuje osoba bogata albo taka u której mercedes na siebie zarobi tak samo jak kiedyś ale starsze roczniki są dalej obiektem pożądania. Na nowego mercedesa stać niewielu na starszego już więcej osób. Ale wielu na nowego merca patrzy pożądliwym wzrokiem bo starsze modele to dobre auta, to właśnie te auta są powszechniejsze i one budują wartość marki bo wszyscy je chwalą. Jeśli za parę lat starsze mercedesy nie będą się nadawać do niczego bo będą skarbonkami na kółkach efekt jaki nowy mercedes będzie wywoływać w społeczeństwie będzie mniejszy co może się odbić na sprzedaży nowych aut. No bo co to będzie za lans autem za którym się nikt nie obejrzy bo jak bo będzie na niego stać to będzie nic nie wart. Nawet stary mercedes trzyma dziś wartość nie dla tego ze to mercedes tylko dla tego ze to jest auto niezawodne 500 tyś to dla diesla z beczki czy 124 to małe fiki miki a silnik i półtora miliona jest w stanie wyklekotać jak buda wytrzyma. Znajomy jeździ na linii busikowej mercem 308 robi dziesiątki tysięcy km rocznie bo jeżdżą nim w 2 osoby na 2 zmiany codziennie i mówi ze nie ma dla tego auta dziś alternatywy. Natomiast dwóch innych znajomych ma Vita (obaj od nowości) jeden blaszaka drugi busa, blaszak jest goniony po całej Polsce natomiast bus to auto rodzinne na wypady w góry itp oprócz tego w ciągłym użytku i oboje twierdzą ze merca busa już w życiu nie kupią silniki o ile "w miarę" bez awaryjne to CDI to już nie jest stary klekot z beczki tu jakiś wtryskiwacz tu inna pierdoła i koszty lecą poza tym oba Vita rdzewieją jak maluchy eleganty. Mercedes jakościowo się stacza. 8 letnie garażowane auto w którym wypada w karoserii dziura na wylot to nie jest dobra reklama. Niestety im więcej elektroniki tym gorzej. Bo potem wyskakują jakieś błędy po deszczy, przy przymrozkach, przy dużej wilgotności, po wjechaniu w kałuże, po trzaśnięciu drzwiami. To naprawdę ludzi zniechęca.
  5. Wszystko fajnie ale Po wypadku jak zostało zauważone lepiej mercedesa złomować i kupić nowego niż naprawiać bo to będzie zabawa dla hobbysty. Kolejna sprawa to żywotność auta. Stare mercedesy tzn "beczki" były w stanie zrobić tyle tysięcy kilometrów ile blacha wytrzymała zanim się w pół złamał. Taki mercedes pojeździ kilka lat i się zrobi z niego "choinka" co chwile będzie coś mrugać tu się jakiś kabel urwie tu nie będzie styku tu wtyczka przerdzewieje i tak dalej A każde takie zdarzenie to seria błędów. I wizyta w serwisie.
  6. energia elektryczna w procesie produkcji przesyłu i magazynowania generuje bardzo podobne straty jednak nikt się nie zastanawia ile z tego co płaci za energie elektryczną to energia którą zużył a ile ta która poszła na grzanie tysięcy kilometrów kabli a ukryta w cenie kilowatogodziny Juz kiedyś ze 100 lat temu pracowały maszyny na holzgaz z pokładowym generatorem gazu I raczej wg mnie rozwój nie pójdzie kierunku gromadzenia energii tylko tak jak zostało powiedziane w kierunku ogniw paliwowych łatwiej jest gromadzić substancje chemiczne chociażby nawet sprawiający problemy wodór niż energie elektryczną. Silniki elektryczne maja duży potencjał chociażby dla tego ze mają bardzo szeroki zakres w którym osiągają wysoka moc przy odpowiednim sterowaniu pracują równo bez nazwijmy to udarów Które obecnie w nowych autach są tłumione przez koła dwumasowe. Ale przy wyższych prędkościach są prądożerne i drastycznie spada zasięg poza tym cały czas kulamy ciężkie akumulatory. Dziś to porostu niema najmniejszego sensu za jakiś czas tak ale to jest technologia która ma na tyle dużo wad ze nie będzie z wyboru tylko raczej z przymusu.
  7. Straty przesyłowe są nie do uniknięcia jak kolwiek się nie posuną do przodu w energetyce. Na sprawność pojazdów elektrycznych ma wpływ cały proces pordukcji energi. A jeśli każdy będzie mógł produkować energie to państwa to opodatkuje. Nowoczesny silnik diesla jest przystosowany do paliwa o określonej lepkości i czystości sumie to tyle. Jemu jest naprawde obojętne co spala byle tylko było w odpowiednim momencie pod odpowiednim ciśnieniem dostarczone. Polski ON jest jakościowo NIKCZEMNY. Polsce silniki cierpią na pewne uszkodzenia znacznie częściej niż gdzieś indziej. Paliwo wezmę na przykład z upraw rzepaku czy czego bądź i co ciekawe są już instalacje do domowej produkcji. http://www.drewnozamiastbenzyny.pl/biodiesel-produkcja/ "A wiesz, że to droższe od ropy?" Ale tańsze od energii elektrycznej już dziś. Co do pana Kopcia Problem polega na tym ze właśnie na nie byle jakich akumulatorach ten wynik, jak byś wpakował do toyoty za tyle ołowiowych to by się z miejsca nie ruszyła albo w pół złamała. Poza tym akumulatorami ołowiowymi byś toyotę wypełnił w całości za jakieś 20 tyś. Takie auto za to musi mieć skomplikowany system sterowania silnikiem elektrycznym a elementy wykonawcze dla takich mocy tanie nie są przy prądzie stałym zasięg był by śmieszny. Mam niestety wątpliwa przyjemność bliższego zapoznania z pojazdem elektrycznym, coś podobnego do wózka golfowego. I jest to daremne a dla właściciela w użytkowaniu kłopotliwe z rożnych względów.
  8. Mikroos Niemcy już podczas wojny produkowali syntetyczną benzyne. To nie jest opłacalne dziś ale jak zabraknie ropy to będzie opłacalne bardziej niż elektryka. Elektryka jest droga jeśli się uwzględni koszty produkcji prądu strat na liniach przesyłowych sprawności akumulatorów ilości cykli ładowania. Diesel pociągnie na czym bądź znane mi są przypadki (z relacji naocznego świadka notabene inżyniera oraz technika mechanika) z połowy ubiegłego wieku lania do traktorów ropy (tak ropy nie ON) branej z dziury na polu lanej przez sitko żeby ziemia na sitku zostawała było to w Polsce w okolicach roponośnych. Rudolf Diesel uruchomił swój pierwszy silnik na oleju oleju arachidowym. Rudy 102 A dokładniej t-34 miał tak niewybredny silnik ze był się w stanie zadowolić mazutem (jak ORP Błyskawica tylko ze tam zupełnie inaczej spalanym). i tak dalej. Silnik przystosowany do ON spala najlepiej ON ale stary diesel spali byle co, nowy będzie wybredny. Ale nic nie stoi na przeszkodzie by tak skonstruować silnik by spalał inne paliwo. Poczciwy maluch czy komarek nawet na benzynie ekstrakcyjnej pojedzie tylko trzeba dolać trochę mixolu bo za sucha jest. Ursus c45 średnioprężny tez na czymkolwiek szedł. Połowa ameryki południowej (nie znam dokładnych danych) jeździ na alkoholu. Benzyniaki idą na LPG albo CNG. A co do samych akumulatorów to jest w Polsce taki pan Kopeć ma na nazwisko i bawi się w rożne elektryczne auta (jako pierwszy w PL takie zarejestrował) sledze sobie jego poczynania http://www.samochodyelektryczne.pl/ No i jest kicha na pewnym forum chwalił się trasą z Gdańska do Warszawy swoja TOYOTĄ bez miedzy ładowania z prędkością 70 na godzinę po czym napisał ze ma tam akumulatorów za 100 tysięcy. I tym miłym akcentem....
  9. Tolo

    Atak na bankomaty

    Co do bankomatów to pracują pod rożnymi systemami ale dla takich rozwiązań odpowiedniejszym jest Windows xp embended to najczęściej nie jest Xpoek jakiego znamy. Tutaj chodzi raczej o to ze to jest system rodziny Xp a nie Xp profesional. Tego o integrowaniu bankomatu z desktopami to chyba nie rozumie to jest zupełnie oddzielna siec. Nie ma to nic wspólnego z desktopami no chyba tylko to ze serwer obsługujący transakcje może stać koło serwera nierytualizującego desktopy pracowników. Z armia USA to tez jest problem bo dopiero co Microsoftowi we współpracy z nsa udało się spłodzić w miarę bezpiecznego Xpka dla USAF o ile pamietam. Używają tego systemu bo po pierwsze jest po drugie jest to jakaś ciągłość po trzecie wymiana tego wszystkiego na linuxy/unixy kosztowała by dużo na raz a lepiej płacić po troszku. Linuxy tez sa używane i wspierane przez NSA.
  10. Tolo

    Antywirus na pendrive

    Wynalazek jak wynalazek jakiś czas temu (dość dawno) z jakiejś konferencji przywiozłem bootowalne cd bodajże g-data. Pendrive to tylko dalszy rozwój.
  11. Paliwo ciekłe bardzo skutecznie składuje się w beczkach, kanistrach i bardziej brawurowych pojemnikach jak butelka po coli. Zamiana na prąd jest może skuteczniejsza ale nie ekonomicznie bo koszty magazynowania w akumulatorze energii ze względu na ich cenę pojemność i ilość cykli ładowania przekraczają wartość zgromadzonej energii. Rachunek jest prosty zakładamy ze koszty uzyskania prądu i bioetanolu są porównywalne (co do rzędu wielkości). Teraz koszty użytkowania. Koszty obsługi pojazdu ze względu na duży udział kosztów jednakowych tu i tu będą porównywalne. Natomiast koszty magazynowania energii już nie paliwo lejemy do baku i jedziemy. Kilogram paliwa gromadzi znacznie więcej energii niż kilogram akumulatora (jak by nie liczyc). Ciężkie akumulatory zwiększają masę którą trzeba cały czas wieźć (tracić energie) paliwo ciekłe nie dość ze jest go mniej to jeszcze z kazą chwila go ubywa (masowo). Akumulatory po kilku cyklach ładowania i rozładowywania (100 czasem więcej zależy od akumulatora) są toksycznym odpadem. Co więcej większość akumulatorów źle znosi rozładowanie całkowite. I tyle ekonomi a teraz praktyka Ekologi jest w tym tyle co kot napłakał bo i tak spalamy biomasę. Pojazdy elektryczne nie są w stanie zapewnić takich samych walorów użyteczności. Mają mniejszy zasięg bo przy rozsądnej masie nie są w stanie zabrac tyle "paliwa" ile trzeba. Ładowanie trwa znacznie dłużnej wyobraźcie sobie ze pomykacie autkiem 100 km/h przez Polskę nad morze i robicie 3 10 godzinne postoje na ładowanie i 3 z powrotem a macie tylko 10 dni urlopu... I naprawdę nie rekompensuje tych problemów kultura pracy silnika elektrycznego i wydzielany przez niego mały hałas. A takich naukowców to powinni leczyć w ośrodkach zamkniętych.
  12. Tolo

    Piractwo bije rekordy

    Dokładnie to polityka firm jest największym problemem. Co do samej walki z piractwem to zwycięstwo w tej wojnie będzie Pyrrusowym zwycięstwem. -> Firmy muszą korzystać z tego co pozwala im na efektywne funkcjonowanie. Żadna firma nie wymienia taboru tylko dla tego ze wyszedł nowy model ciężarówki. Tu nie chodzi o wojnę PS contra Gimp. Tylko o fakt ze w hipotetycznej sytuacji koszty użytkowania PS wynikłe z faktu ze nie ma ludzi którzy nim umieją się posługiwać może spowodować konieczność jego porzucenia choć by nie wiadomo jak dobry był będzie niemożliwy do użytkowania. Dlatego właśnie Microsoft z jednej stroni ma viste i super 7 ka ale dalej chce świat uszczęśliwiać XP kiem na tanich laptopach bo wie ze jak go tam nie będzie to kraje rozwijające się ma stracone. Bo jak wejdzie tam linux to winda będzie mieć tam 2% udziału (i tyle albo mniej tez pewnie będzie rynku dla producentów gier for Win). Win tez nie przebije się w firmach bo nikt nie będzie ani przez chwile patrzeć co jest lepsze tylko co ludzie potrafią obsługiwać. W kwestii piractwa muzycznego ciekawy artykuł http://di.com.pl/news/26827,0,Piractwo_pomaga_gwiazdom_utrzymac_popularnosc.html
  13. Tolo

    Piractwo bije rekordy

    Ale ja nie twierdze że korzystanie z czyjejś pracy wbrew jego woli jest dobre. Twierdze ze firmy korzystają na piractwie i pewne mechanizmy piractwa wykorzystują w sposób usankcjonowany prawnie tam gdzie im wygodnie. Twierdząc cały czas ze piractwo jest złe. Znam ustawę o prawie autorskim i prawach pokrewnych. Również uważam ze program to nie cegła i dlatego właśnie nie podoba mi się jak rożne firmy traktują kradzież oprogramowania jak kradzież cegły w kontekście utraconych korzyści.
  14. Tolo

    Piractwo bije rekordy

    Rozumowanie masz niby dobre ale wkradł Ci się w nie błąd . Problem dotyczy "Zawsze" i puki zawsze będzie zawsze masz racje. Tylko ze znikniecie pirackiego PS które hipotetycznie zakładam jest na tyle poważnym zjawiskiem ze wnioskowanie na temat tego co bedzie w oparciu o to co jest i było moze nie zadziałać i nie zadziała. Przypominam ze to dotyczy sytuacji w której nie ma taniego lub darmowego dostępu do PS. W pewnym momencie korzyści płynące z korzystania z PS mogą nie zrównoważyć nakładów na utrzymanie pracy na PS i to jest właśnie ten punkt w którym ktoś powie K...a dość. I tak naprawdę nie wiadomo gdzie on jest bo dla rożnych ludzi i zastosowań jest w rożnych miejscach. Duża cześć wartości marki PS tak jak M$ czy COCA-COLA to powszechność. To ze dziś firma płaci kilka tys nie znaczy ze zapłaci w sytuacji hipotetycznej jeśli do tych kilku tyś dojedzie jeszcze kilka tyś na szkolenie pracownika który PS nie widział. Co do płacenia za kopie. To po pierwsze nie było by taniej tylko wzrósł by zysk producenta. Po drugie właśnie to mi chodzi ze PS za który trzeba było by zapłacić jest nietrakcyjny dla domowego użytkownika. I nikt nie kupi ani pakietu za klika tyś ani nawet za 500 PLN tylko po to żeby poobrabiać fotki. ->Mariusz Błoński Właśnie chodzi o nierówne taktownie. Jak byś zawinął to autko to było by oczywiście be. Ale z drugiej strony jeśli od Ciebie zależało by czy czy jutro sprzedadzą Maybacha to by ci podstawili pod dom i dali pojeździć jak wspomnianego Windowsa studentom natomiast w przeciwnym wypadku możesz chcieć. Należy mieć na uwadze też fakt ze liczą sobie to jak by ktoś cegły kradł. Żeby za chwile stwierdzić że w zasadzie to jak sie kradnie to jak rzecz materialną a jak chodzi o gwarancje to juz nie bardzo. http://kopalniawiedzy.pl/oprogramowanie-kod-odpowiedzialnosc-gwarancja-7484.html
  15. Tolo

    Piractwo bije rekordy

    Ale to nie chodzi o możliwość tylko o hipotetyczny jej brak. Zwróć uwagę ze zakładam tam hipotetyczną sytuacje zwalczenia piractwa. Wtedy nikt by nie wydał pieniędzy na PS (nie małych zresztą) żeby mieć go w domu jak to jest dzisiaj kiedy używa go co drugi szczyl w zastępstwie painta. Po pewnym czasie ktoś szukający pracowników nie znajdzie ludzi do pracy na PS bo wyginą śmiercią naturalną. To dlatego Microsoft pcha się na tanie laptopy bo musi tam być jak go nie będzie to jest w okolicy spalony. Gry istotnie się wyłamują troszkę bo one nie maja biznesowego użycia one zarabiają praktyczne tylko w domach. Tylko zastanawiam się właśnie jak by wyeliminować piractwo to czy producenci gier by zyskali więcej niż Microsoft na tym stracił.
  16. A co z umową terminową jeśli odetną komuś neta? Kto za to zapłaci ? Odcięty kowalski czy podatnik?
  17. Tolo

    Piractwo bije rekordy

    Wydaje mi się ze co najmniej nadużyciem jest twierdzenie ze jeśli Kowalski używa czegoś za darmo to dalej by tego używał jeśli miał by za to zapłacić chociaż złotówkę. Dla mnie to jest ewidentny rozdźwięk miedzy długoterminowym interesem producentów czegokolwiek (muzyka/oprogramowanie) a jakimikolwiek interesami wszelkich instytucji zbiorowego zarządzania prawami autorskimi. Weźmy tego Corela czy Photoshopa. Zakładamy ze uda się zwalczyć piractwo całkowicie i nikt nie będzie mieć nielegalnych kopi. Za 3 lata wszyscy w domu używają Gimpa (i to pewnie na linuxie bo dla wielu PS to silny argument). Studia graficzne tez używają Gimpa bo po co im ten inny soft skoro pracownika z umiejętnością jego obsługi nie ma na rynku i trzeba by go przyjąć i wysłać na kurs za to są tacy co radzą sobie na darmowym sofcie. I wtedy właśnie zaczną rozdawać pewnym grupą Photoshopa za darmo tak jak teraz rozdają studentom inf Windowsy. Żeby tylko ktoś tego używał. Nie ma się co oszukiwać. Piractwo powoduje efektywny popyt który można by nazwać odroczonym w czasie. A cała walka z piractwem nie ma na celu jego zwalczenia to znaczy ma ale nie w takim zakresie jak się wszystkim wydaje. Na przykładzie m$ Chodzi o optymalizacje piractwa ma to zwiększyć efektywność krótkoterminową kosztem części niepewnych zysków w przyszłości. Co Microsoft ma z tego ze kowalski używa dziś pirackiego Windowsa ? dziś to nic. A jutro ? może coś ale nie na pewno bo kowalski może za jakiś czas przesiąść na linuxa. No to co trzeba zrobić? Skubnąć kowalskiego dzisiaj bo już się na tyle przyzwyczaił ze poleci po Windowsa do sklepu. Ale jednocześnie trzeba dbać o przyszłość czyli dalej pozwalać wyselekcjonowanej grupie korzystać za darmo i to w pełni legalnie bo oni zapewnia zysk w przyszłości i tak studenci informatyki dostają tego samego Windowsa tergo kiedyś mieli legalnego albo i nie tylko ze teraz jest on za darmo i legalny. Jaka jest różnica? To tak jak by Mercedes komuś dał Merca za darmo a komuś innemu kazał zapłacić. To by było co najmniej nieładne. A ograniczanie powszechności Linuxa wśród informatyków to długie życie dla m$. Gdzie są pieniążki to nie ma piractwa choć Windowsa rozdają za darmo.
  18. NSA publikuje rożne rzeczy w tym temacie i podejrzewam ze nie będzie tam w tym Windowsie wiele zmian w stosunku do tego co proponuje NSA po prostu będą w zintegrowane. Tu jest NSA Gude dla XP przetłumaczone na PL. http://infojama.pl/cobra/wxp_securityguides_pl.pdf
  19. Tytułem wstępu ap ropo gospodarki centralnie planowanej ona nie w jest w stanie działać efektywnie nie jest nawet w stanie konkurować z kapitalistyczną. Plan centralny nie jest w stanie być dynamiczny i elastyczny a kompetencje decyzyjne wędrują w górę. Natomiast decyzje powinny być podejmowane odpowiednio nisko. W uproszczeniu żeby działać efektywnie firma może albo zwiększać produkcje albo zmniejszać zapasochłonność produkcji lub i to i to. To pierwsze jest oczywiste jeśli sprzedany więcej zarabiając 1$ na sztuce zarobimy więcej (albo jeszcze więcej jeśli ze względu na efekt skali zarobimy więcej niż 1$ ze względu na zmniejszenie udziału kosztów stałych w cenie jednostkowej). Dlaczego tego nie możemy zrobić w gosp centr plan? Bo nie zdobędziemy materiałów do produkcji i nie wyprodukujemy więcej niż zakłada plan. Opcja druga o ile ciekawa tez nie wykonalna przy centralnym planie bo nie mamy wpływu na technologie jaką stosujemy bo to centralny plan przewiduje nasze zapotrzebowanie na maszyny i na ludzi. I to właśnie przez plan centralny i rożne dziwne jego konsekwencje kabareciarze mieli wesoło mieli wesoło. Co do samego wynalazku to można by tez powiedzieć ze Graham Bell wynalazł internet. Po drugie siec ta nie miała potencjału. Jest to raczej ciekawostka. To powstało jako środek represji i nie miało praktycznie żadnych szans na upublicznienie się bo "system" by tego nie wypuścił z rąk bo to był element przewagi nad obywatelem. I to nie jest żaden spisek czy wina braku marketingu to było tajne i miało takie postać. Kolejna kwestia to względy techniczne to pewnie działało w oparciu o siec teleksową. Sama siec teleksowa z definicji była cyfrowa wiec przesyłanie danych cyfrowych też nie było polskim pomysłem. Po zatem jak to powstawało to podwaliny pod dzisiejszy internetu już istniały (koniec lat 60-tych). A co do badan naukowych to mama takie dziwne wrażenie ze to nawet nie tyle nauka dla samej nauki ale konkurs na najbardziej kretyński (najmniej zrozumiały) tytuł pracy, i to ma stwarzać pozory naukowości.
  20. Wspaniałe genialne Poproszę paczekę takich pasków paprykowych no i jeszcze 6 cio paka takich pasków o smaku tyskiego będę się mógł napchać chemią z pominięciem ziemniaka. Genialne ! To tyle żartów ale jak by się nad tym zastanowić to jak ktoś dostanie jakiś pasek żeby sprawdzić jak smakuje nie wiem jogurt naturalny to może mieć poważne wątpliwości co do naturalności jogurtu którego smak zamknięto w pasku
  21. @thibris Bardzo niewiele jest aplikacji które dziś mogą zostać uruchomione w firmie i działać autonomicznie bez kontaktu ze światem czy to przez napęd USB czy przez siec, duża cześć systemów które są w firmach "nie do ruszenia" to aplikacje klient serwer. Taka wirtualizacja bez kontaktu to niestety nie jest wiele warta jak chociażby zsynchronizujesz z tym urządzenie przenośne?. Po zatem jeśli pozbywamy się z jadra kodu xp to znaczy ze mu coś dolega a tu go w wirtualnym środowisko odpalamy bez AV. To raczej nie zagra bo AV filtrujący ruch sieciowy na poziomi seven to za mało. Dodatkowo Oprogramowanie AV/Firewal w pewnej liczbie firm przy takiej konfiguracji będzie obligatoryjne ze względu na przykład na wymogi polityki bezpieczeństwa. Taka konfiguracja może nie spełniać wymagań stawianych systemom do przetwarzania informacji niejawnych. Jeśli chodzi o Virtual PC to miałem z nim (dokładnie 2004) starcie na moim poczciwym PIII 733 i 512 RAM i przy uruchomieniu Mandrake pod windą chodziło to nad wyraz anemicznie. I system główny i wirtualizowany nie nadawały się do użytku dodam ze prędkość ich działania nie była porównywalna z którymkolwiek z tych systemów uruchomionych na amd k6@300mhz z64 ramu na pokładzie. To nie chodzi o diskeditora tylko o cokolwiek co potrzebuje konaku "fizycznego" z maszyną, ta wirtualizacja to jest proteza i nie spełni pokładanych w nim wymagań. To jest tylko bełkot marketingowy. W większości miejsc gdzie komputer jest używany do czegoś tylko ciut bardziej zawansowanego niż piśnie maili to się nie sprawdzi. Przykłady? proszę bardzo drogie oprogramowanie do projektowania rożnych rzeczy uruchomione pod wirtualną maszyną straci wiele na wydajności. Sprzęt do pomiarów który potrzebuje bezpośredniego dostępu do rożnych rzeczy w komputerze (w szczególności w miarę swobodny dostęp do portów). Soft do kas fizykalnych soft do obsługi boxów do serwisowania telefonów komórkowych. Soft dla interfejsów diagnostycznych do samochodów. Oprogramowywanie do odzyskiwania danych, managery partycji, oprogramowanie do synchronizacji z rożnymi aplikacjami mobilnymi, i w cholerę innego specjalistycznego oprogramowania. ale czy na pewno? Tryb xp ma być zintegrowany z pulpitem klik i masz wiec musi działać cały czas w tle bo budzenie takiego wirtualnego środowiska (już nawet nie uruchamianie a przywracanie) to jest czas a lag na komputerze za kilka tysięcy na NaJnOwŚiEjSyMm i NaJsUpErOwSzYm systemie to był by marketingowy błąd bo wcześniej działało bez hepania. Parametry sprzętu są dla użytkownika a nie na wypasanie na nich systemu operacyjnego. I taka dygresja na koniec: Da się?
  22. No wiec jak to pisałem to miałem tylko przeczucie a dziś już wiadomo jak to będzie: zródło. Będzie to maszyna wirtualna z uruchomionym XP. Będzie to zasobożerne chociażby przez to ze wymagać będzie 2 kompletów softu AV (puki co, ale raczej tu będzie trudno coś zmienić). Nie napisałem ze moim zdaniem wygra z 7 tylko ze taką kompatybilność z XP zapewni dowolny system zdolny do odpalenia maszyny wirtualnej. PS ja używam komputera PC od czasu dosa 6.22 (a zdążało mi się testowo uruchamiać starsze wersje dosa a na komputerach klasy XT/286 bo mam takie w moich zbiorach). Ta "wirtualizacja" nie jest dla "ludzi" to jest taka bajka puszczona dla tych co mają kompetencje decyzyjne żeby się "nie bali" wydać $ na 7 bo nawet jak będzie do bani to mają zawsze XP jak kiedyś. A jak się tych 2 panów nie będzie tym zachwycać to m$ im weźmie laptopy i zamknie rachunek w McDonaldzie. Dodatkowo trzeba mieć na uwadze ze jest to tylko pseudo kompatybilność. Powiedzmy że z technicznego punktu widzenia to będzie ona dość bliska pełnej. Jednak nie będzie mieć pełnej użyteczności. Co z tego ze będę mógł skorzystać z jakiegoś narzędzia jeśli nie wyjdę poza środowisko wirtualne a tam chce mieć efekty jego działalności? Co mi na przykład z tego ze odpalę pod 7 disk editora jak będę sobie nim mógł w nosie pogrzebać a nie w MBR? Jeśli było by inaczej to dziury XP bezpośrednio zagrażały by W7 a tak zagrażają tylko środowisku wirtualnemu, O ile Virtul PC nie jest dziurawe jak sito. To nie jest kompatybilność wsteczna tylko proteza bo powiedzieć symulator to za dużo. Wirtualizacja to nie jest coś co się stosuje dla tego ze jest to modne, sąsiad ma czy coś, bo jak by tak podchodzić do wszystkiego to jeździlibyśmy golfami albo starymi bmkami. Wirtualizacja ma mieć jakiś sens: optymalizacja wykorzystania zasobów, stworzenie środowiska testowego, odizolowanie użytkowników od warstwy fizycznej czy siebie nawzajem i tak dalej. Oferowanie jako cześć systemu czegoś co ktoś może mieć jak mu się spodoba czy zamarzy (np w virtual box można wirtualizować system uruchomiony z fizycznej partycji) A wirtualizacja Windowsa w Windowsie mnie po prostu śmieszy. Za chwile wypuszczą windowsa 8 z innym jadrem i znowu będą wirtualizować kompatybilność wsteczną i jak napisałem za chwile będzie 3 jadra odpalone na jednej maszynie a M$ będzie tłumaczył ze jest to ekologiczny system. Po zatem uruchomienie drugiego jadra ma się nijak do wydajności i korzyści wynikających pozbycia się starego kodu. Mam wręcz wrażenie ze Microsoft nie potrafi stworzyć dobrego kodu. Albo robi to specjalnie z premedytacją i dla $ nie trzymając kompatybilności wstecznej. Zawsze mogą powiedzieć ile to nazmieniali i jakie to jest teraz wspaniałe a nie takie baniate jak poprzednio żeby za jakiś czas znowu powiedzieć jakie to cudo stworzyli od zera. Ja tam jestem zdania że efektywniejsza jest ewolucja nie rewolucja. Co wersja są jakieś problemy szczególnie w specjalistycznych zastosowaniach np zablokowanie bezpośredniego dostępu do portów w XP sprawiło ze ten system stał się dysfunkcyjny dla części zastosowań "specjalistycznych". Dzięki temu co grubsza wersja trzeba wymienić cześć softu/sprzętu i biznes się kreci bo inne firmy mają zbyt, znowu wdrażają, znowu szkolą znowu sprzedają sprzęt etc a dla mnie to nic innego jak dmuchanie balonu w branży IT. Do niedawna wszyscy byli szczęśliwi. Ale pierwszym znaczącym objawem przytkania był brak hura optymizmu w wymianie Windowsów i sprzętu jakiego spodziewano się po Viscie.
  23. A ja dalej będę twierdzić ze w wykonaniu m$ pomysł jest głupi. Wyobrazicie sobie na przykład duży bank który Windowsa XP uruchamia i tak w środowisko wirtualnym na mainframe, tak by pracownik w banku miał tylko terminal, nie składował lokalnie danych można było centralnie tym zarządzać itp. I teraz brawa dla osoby która tam postawi sevena po to żeby mieć kompatybilność z XP przez wirtualizacje. Co do wydajności to będę co najmniej sceptyczny bo sprowadzi się to do uruchomienia dwóch jąder (dziś) bo Windows 8 pewnie będzie wirtualizował XP i sevena/viste. Co więcej brak kompatybilności wstecznej miedzy rożnymi produktami z pod znaku m$ jest tak powszechny jak ich zdolność do absorpcji dowolnej ilości zasobów. Po zatem znacznie poważniejszym problemem jest jest kompatybilność procesorów z x86. No i powód dla którego w/g mnie w wykonaniu m$ jest to z marketingowego punktu widzenia celny strzał w stopę z broni śrutowej. Taki poziom kompatybilności będzie w stanie zapewnić dowolny inny system będący w stanie uruchomić środowisko wirtualne. Bo po przejściu na linuxa mamy kompatybilność z xp jak w seven. I mamy to za darmo Co więcej wszystkie argumenty na temat kompatybilności Windowsa opierające się na naśmiewaniu się z wine przybiorą drugie dno. A na koniec ktoś wykorzysta tę wbudowana wirtualizacje i zrobi LINUX 7 który będzie działał na zasadzie "click & play" bez żadnych problemów sprzętowych bo będzie uruchamiany w znanym i wszędzie identycznym środowisku wirtualnym. Co do panów Rafaela Rivera i Paula Thurrott to jestem zdania ze są w błędzie i bo choć nawet ta wirtualizacja będzie się cieszyć jakimś zainteresowaniem to jest to tylko półprawda bo znacznie większym zainteresowaniem będzie się cieszyć natywny XP niż jego wirtualizacja pod sevenem. Bo po pierwsze już jest, po drugie już działa, po trzecie nie trzeba wyciemniać sprzętu, po czwarte nie ma kosztów szkolenia pracowników i po piąte nie ma się co martwic o support bo jest świadczony przez zewnetrzne firmy. Co do pozbywania się starego kodu to jest to chore jeśli jest to sztuka dla sztuki. To ze kod nie wyszedł właśnie z pod palców programisty nie oznacza ze jest bezwartościowy i tak dalej, to jest w pewnym zakresie zastępowanie starych błędów nowymi. Za jakiś czas m$ stwierdzi ze kod w7 jest do doopy wbrew temu co dziś mówi.
  24. Rafael Rivera i Paul Thurrott pewnie piszą swoja książkę na laptopach które im sprezentował M$. Wykorzystywanie wirtualizacji do zapewnienia kompatybilności wstecznej systemowi operacyjnego z pod znaku M$ jest śmieszne, bo tak to nawet można kompatybilność z xp zapewnić traktorowi. Nie do końca zgadzam się ze to pierwszy raz jak m$ zrobił coś takiego. Mniej więcej na zbliżonej zasadzie działa cmd.exe to nie jest przecież DOS a jedynie jego atrapa mająca zapewnić kompatybilność wsteczną (jako ciekawostkę dodam ze nie zawsze zapewnia). Ale do sedna sprawy. Jest to taka nieco dziwna sytuacja czyli kup nowego Sevena żeby móc dalej używać XP. Idźmy dalej to jest taka mniej więcej kompatybilność przez maszynę wirtualną jak Wine pod linuxem (chodzi o ogół a nie o szczegóły). Równie dobrze można pod dowolnym linuxem uruchomić w virtualboxie XP i mamy porównywalną kompatybilność. A co M$ zrobi za chwile ? jak wejdzie kolejny windows na nowym jądrze? będzie równolegle odpalać jadro nowego Windowsa i xp oraz sevena/visty w wirtualnych maszynach. No przecież to zakrawa na paranoje. Jeśli Windows nie trzyma kompatybilności wstecznej, M$ co chwile straszy wycofaniem suportu, kompatybilność ma być zapewniona przez wirtualizacje, wygląda całkiem inaczej niż XP wszystko działa inaczej i to w zasadzie powiedział bym ze na poziomie filozofii użytkowania i tak dalej to jedynie ludzka głupota i strach przed linuxem może uratować M$.
×
×
  • Dodaj nową pozycję...