Skocz do zawartości
Forum Kopalni Wiedzy

andrew102

Użytkownicy
  • Liczba zawartości

    19
  • Rejestracja

  • Ostatnia wizyta

    nigdy

Reputacja

0 Neutralna

O andrew102

  • Tytuł
    Fuks

Informacje szczegółowe

  • Płeć
    Nie powiem
  1. zgadza się tranzystory są w każdym rdzeniu, tylko tranzystor z tego co kojarzę pobiera moc tylko przy zmianie stanu, stąd wniosek, że im większa częstotliwość tym większy pobór mocy, przy zastosowaniu wielu rdzeni można ograniczyć częstotliwość taktowania, nie tracąc wydajności, no i tu się zastanawiam, czy moc pobrana przez procesor z x tranzystorami w jednym rdzeniu jest taka sama jak moc pobrana z x tranzystorami w kilku rdzeniach, albo inaczej, czy moc pobrana przez procesor o wydajności y z jednym rdzeniem jest taka sama jak moc pobrana przez procesor z wieloma rdzeniami i wydajnością y. Mi intuicyjnie wydaje się, że wielordzeniowe pobierają mniej energii, jednak nie mam pewności.
  2. w aplikacjach biurowych (pomijając hurtownie danych, bazy danych) myślę, że optymalizacja, pod względem wielowątkowości jest nie potrzebna, a mniej lub bardziej stosuje się wielowątkowość, pozwalając na interakcję użytkownika z programem, w trakcie, gdy wykonywane jest w tle inne polecenie, np. transmisja z bazą danych. Co innego we aplikacjach gdzie mamy do czynienia z np. obrazem, możemy przetwarzać w jednym momencie tyle pikseli, ile tylko mamy rdzeni (przy pewnych założeniach). Co pozwala na np. dodawanie efektów w czasie rzeczywistym do materiału video. Myślę, że również obliczenia naukowe, symulacje mogą być nie jednokrotnie prowadzone po części równolegle. Tak więc, myślę, że programistów, którzy muszą pisać przede wszystkim wydajny kod czekają duże zmiany w podejściu do programowania, nie będzie się już liczyć ilość pętli, ale również ich wzajemna niezależność. Co innego programiści aplikacji biurowych w .net, java, etc,
  3. mi się wydaje, że to przede wszystkim, od ilości tranzystorów, a nie ilości rdzeni zależy moc pobierana przez procesor, no i od częstotliwości, bo nie pamiętam już dokładnie, ale tranzystory w procesorze pobierają energię zdaje się tylko w chwili przełączania stanów, więc czym wyższe taktowanie tym większy pobór. Przy procesorach wielordzeniowych operacje graficzne bardzo prosto można wykonywać na równolegle, więc taktowanie pojedynczego rdzenia może być małe, a biorąc pod uwagę efektywność pracy, jest prawie taka, jakby zsumować częstotliwości wszystkich rdzeni.Co prawda jest w tedy więcej tranzystorów, które potrzebują energii, ale i tak sądzę, że taki układ łatwiej chłodzić, niż jakby pojedynczy rdzeń był taktowany z taką częstotliwością, aby wykonywał pracę układu wielordzeniowego (nie mówiąc o tym, że to jest w sumie nie możliwe).
  4. Sądzę, że już teraz bez wzięcia pod uwagę mechaniki kwantowej nie udałoby się tworzenie najnowszych procesorów (mikroskopowy opis zjawisk transportu - przewodnictwo prądu w metalach i półprzewodnikach). Poza tym kto mówi, że tysiące rdzeni nie będzie właśnie dzięki tranzystorom złożonych z pojedynczych, elektronów.
  5. Przepraszam, że zbaczam trochę ztematu win3.11 ale uważam, że moja wypowiedź powinna zainteresować mojego przedmówcę, oraz być przykładem kiedy jednak nie warto pozostawać przy starych wersjach systemu. Przy zmianie z 95 na Xp to prawie na pewno niesie potrzeby zmiany sprzętu, jednak z kilku powodów w przychodzi zdrowia akurat dokonałbym takich zmian. Po pierwsze jeżeli przychodnia ma podpisany kontrakt z NFZ (większość w Polsce taki posiada), w ostatnim czasie konieczna była wymiana oprogramowania w większości przychodni, oczywiście aktualnie nikt nie tworzy oprogramowania na starsze niż XP, no może win2000 wersje windowsa, co zmusza do wymiany softu, po drugie sprawa bezpieczeństwa, oprogramowanie takie wymaga dostępu do sieci, nie rzadko posiada bazę danych, która też z założenia nie jest już pisana na win95,98 czy ME, ewentualnie ktoś zdołał ją uruchomić, ale nikt pewnie nie sprawdzał jej bezpieczeństwa. Dodatkowo obecnie coraz mniej produktów zabezpieczających (zapory, antywirusy) jest pisana pod kontem innych niż NT windowsów. Należy przy tym uświadomić sobie, że w bazie danych przychodni znajdują się poufne dane na temat pacjenta. Kolejnym powodem zmian może być ergonomia pracy, (nie mówię tutaj tylko o windowsie, ale o wydajności sprzętowej). Ciężko ogólnie porównywać ośrodek zdrowia do urządzeń, w przemyśle, pod kontrolą win3.11, które nie mają np. problemu z bezpieczeństwem (nikt ich nie zaatakuje bo niby jak, przez gniazdko energetyczne, ponadto, nawet działające w sieci przeważnie są w sieciach prywatnych, lan, czy też vlan). Reasumując ze względów bezpieczeństwa, i dlatego, że nfz wprowadza/wprowadził duże zmiany warto wykorzystać ten moment na migrację, która i tak musi się odbyć do tzw. formatu otwartego. Dodatkowo w przypadku przychodni, rzadko stosuje się indywidualne rozwiązania (które tak naprawdę tworzą główną barierę finansową przy migracji) Wydaje mi się, że może to być wydatek dla stanowiska powiedzmy 2500 zł, co wcale nie jest kosmiczną sumą dla ośrodków zdrowia. Jedyną barierą jest przyzwyczajenie użytkownika.
  6. postęp miniaturyzacji pewnie i nie będzie szedł w nieskończoność, ale skoro można wyprodukować procesor z setkami milionów tranzystorów, to czemu nie z setkami rdzeni, poza tym pewnie się czepiam ale chyba od czasów inteli trójek (nie wszystkich) nie produkują już procesorów na sloty tylko na gniazda, więc ciężko może być zobaczyć nawet 2 rdzenie na slocie.
  7. Tyle, że moje przepuszczenia oparte są na doświadczeniach zdobytych przy różnego typu pomiarach na laboratoriach miernictwa (niestety nie ciśnienia, bardziej związanych z elektroniką) i już przy 20 pomiarach można zauważyć, że uśredniony wynik jest bliższy rzeczywistej wielkości, niż większość pojedynczych wyników, co dopiero kiedy zrobi się tych pomiarów kilkaset. Ponadto jeżeli nawet założymy, że błąd jest na poziomie 5% no to zgodnie ze sztuką powinno się podać dla nas najgorszą wartość, ewentualnie kilka wartości charakterystycznych(np.: najgorszy, uśredniony i najlepszy przypadek ). Czyli powiedzmy że miernik przy pomiarach odpowiednio podał 150 przed i 160 po zabiegu, w takim razie analizując wyniki przy najgorszej dla nas opcji, czyli wynik 150 zawyża się o 5% i wychodzi 157,5 a wynik 170 zaniża się o 5% i wychodzi 161,5 czyli różnica wynosi 4 (co jest mniejsze od 5% z 150 czy też z 170) ale w żadnym wypadku nie można mówić o tym, że nie można brać jej pod uwagę, bo jest mniejsza od błędu pomiaru. Więc nawet zakładając, że błąd przy wielu pomiarach jest dalej na tym samym poziomie (zaznaczam, że moim zdaniem tak nie jest i ciężko mówić w sumie, żeby to było tylko moje zdanie), nie wyklucza to w tym przypadku podania wartości mniejszej niż wynosi błąd pomiaru. W taki sposób jednak traktuje się tylko pojedyncze pomiary, ponieważ przy większej liczbie pomiarów rozkład wartości błędu jest równomierny i maleje z każdym pomiarem. Jaki sens miałoby badanie 1000 osób, a nie np. tylko 100. Naturą każdego pomiaru jest to, że im więcej tym lepiej, a lepiej znaczy dokładniej, bliżej rzeczywistych wyników. Nie wiem w jaki sposób jeszcze można to wytłumaczyć, trzeba byłoby sięgnąć po wzory matematyczne, potem je wyjaśniać, a w końcu są wakacje.
  8. Myślę, że zgłaszać powinni, nie tylko wyżsi rangą, ale i niżsi, a do tego powinno być to też punktowane, dla zachęcenia (wiem, że jest to coś w stylu: uprzejmie donoszę ..., ale bez tego wikipedia straci na wiarygodności), jednak fałszywe oskarżenia powinny spotykać się z odbieraniem punktów. Co do poziomu głosujących, wydaje się być rozsądne, aby głosowali, ci którzy mają wyższą rangę, jednak biorąc ludzi z innych dziedzin, głosowanie może nie być merytoryczne, ponieważ głosujący mogą nie znać się na konkretnym temacie. Zdaje sobie sprawę również, że z czasem mogą powstać coś w rodzaju stanowisk pracy, dla wandali, którzy będą mieli za zadanie np. oczernianie konkurencji, bądź reklamę własnej firmy/zleceniodawcy, przed takimi będzie bardzo ciężko chronić wiki. Co do zapraszanie innych firm do wiki, sądzę, że firmy mają już swoje konta (może nie do końca jawne) jednak problemem nie jest np. samo hasło intel dla firmy intel, lecz np. jej brak, przy hasłach typu procesor, bądź innych, gdzie np. będzie tylko AMD. Co do trzeciej fazy mojego przedmówcy i dyskusji, to wiki już coś takiego posiada i nazywa się to właśnie dyskusja, ciekawym rozwiązaniem mogłoby być jak pisze macintosh alternatywna definicja na samej stronie artykułu. Jednak i wydaje mi się, że bez weryfikacji i tak może to stanowić problem. Co do rejestracji, myślę, że ludzie chętni napisać artykuł, nie byli by aż tak zniechęcani, muszą być świadomi tego, że to dla dobra między innego ich artykułu, a ktoś kogo zniechęca sama rejestracja - zastanawiam się czy napisze doby artykuł, jeżeli nie chce mu się rejestrować, a ma poświęcić w cale nie minutę na napisanie artykułu, co innego jakieś poprawki, mógłby np. dyskutować na temat artykułu bez swojego konta.
  9. mnie bardziej chyba zniechęcałoby, gdyby ktoś edytował, zamieszczał błędne notki w moim temacie, niż proces rejestracji, który pokrótce przez wikipedię wyjaśnionych przyczyn musiałbym, przejść, ewentualnie można stworzyć możliwość przesyłania wiadomości na temat znalezionych błędów do opiekunów tematu.
  10. myślę, że przede wszystkim powinni blokować możliwość edycji, dodawania i usuwania tematów tym którzy łamią reguły, a nowe konta powinny być tworzone na zasadzie zaproszeń i posiadać rangi, dzięki którym można w pewien sposób ocenić rzetelność informacji, jednak zdaje sobie sprawę, że to jest jedynie półśrodek.
  11. Niestety wandalizm w internecie jest faktem , uważam zainteresowanie organizacji zaradzeniu temu za jak najbardziej słuszne, nawet kosztem utraty głównej cechy wiki, którą jest możliwość swobodnej edycji stron. Sądzę, że z czasem mogą zacząć pojawiać się np. linki z reklamami, bądź subiektywne opinie na jakiś temat. Mam nadzieje, że uda się im znaleźć sposób, na zaradzenie wandalizmom. Co do przyrostu/edycji stron wydaje mi się, że nie jest on już tak duży jak kiedyś, i da się nad tym zapanować.
  12. uważam, że przykład dokera z 2*2+2 doskonale oddaje problem wielowątkowości, ale wydaje mi się, że należy pisać tak programy, aby jak najkrótsze sekwencje były niezależne, ponieważ wtedy można efektywniej wykorzystać rdzenie (jeden wątek czeka krócej na zakończenie innego), trudno też mówić o niezależności wątków, przeważnie posiadają dostęp do wspólnych danych, dysków, więc długie wątki mogą blokować dane, przez co w związku z integralnością również inne wątki. Ciekawi mnie na ile ten problem dotyczy wirtualnych maszyn np. java, czy też .NET, co prawda java pozwala pisać programy korzystając z wielowątkowości, ale nie jestem pewien na ile jest to "tłumaczone" na wątki przez maszynę wirtualną. Jeszcze dodam, że moim zdaniem żaden software czy też hardware nie zrzuci z programisty konieczności zmienienia podejścia do pisania kodu.
  13. Z tego co wiem, to jeszcze duża ilość urządzeń przemysłowych działa na tym oprogramowaniu, a koszty ewentualnych wymian mogą okazać się duże, ponieważ mogą wymagać napisania nowych sterowników. Przypomina mi się historia NASA, które parę lat temu skupowało stary sprzęt między innymi procesory 486 ponieważ oprogramowanie do lotów w kosmos było testowane przez wiele godzin (zdaje się więcej niż 100 000) właśnie na takich procesorach i wymiana na nowe wiązałaby się z koniecznością ponownych testów.
  14. Nie wiem ile osób brało udział w badaniach, ale myślę, że błąd jest nie większy od 1% a pewnie i znacznie niższy. Jeszcze raz zaznaczę, że ciężko byłoby tak "sterować" błędami, żeby zaniżać tam gdzie trzeba i zawyżać tam gdzie trzeba wartość rzeczywistą, a jedynie w tedy można byłoby mówić że błąd pomiaru dla dużej ilości badanych jest taki sam jak dla pojedynczych. Inaczej po co w ogóle mówić o statystycznych metodach pomiarów.
  15. Ciekawe ile czasu, zasobów ludzkich i kasy te badania zabrały, lepiej pograliby sobie w jakieś gry albo co, zamiast pisać o rzeczach, które są dość oczywiste, i w pełni zgodne z zasadami projektowania oprogramowania dla różnego typu platform, np. zapisywanie kopi aktualnie edytowanych plików w folderach tymczasowych, czy też w folderach aplikacji. Powinni podejść do tego bardziej konstruktywnie, np.: próbować tworzyć nowe normy, np.: dobrym pomysłem przy edycji plików jest zapisywanie jego kopi w tym samym folderze, nie jestem pewien ale ms office coś tam zapisuje w tym samym folderze z przedrostkiem ~. Gorzej z aplikacjami typu google desktop, gromadzącymi informację o całej przestrzeni dyskowej. Ale tu jest zasada coś za coś, albo chcemy mieć wyszukiwarkę, której funkcją jest wyszukiwanie informacji, przy tym jak najszybciej, albo bezpieczeństwo danych i wynikający z tego brak indeksowania plików,bądź stosowanie kodowania przy indeksowaniu. W każdym razie gratuluje naukowcom kolejnego wielkiego odkrycia ))
×
×
  • Dodaj nową pozycję...