andrew102
Użytkownicy-
Liczba zawartości
19 -
Rejestracja
-
Ostatnia wizyta
nigdy
Zawartość dodana przez andrew102
-
Programistów czeka sporo pracy
andrew102 odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
zgadza się tranzystory są w każdym rdzeniu, tylko tranzystor z tego co kojarzę pobiera moc tylko przy zmianie stanu, stąd wniosek, że im większa częstotliwość tym większy pobór mocy, przy zastosowaniu wielu rdzeni można ograniczyć częstotliwość taktowania, nie tracąc wydajności, no i tu się zastanawiam, czy moc pobrana przez procesor z x tranzystorami w jednym rdzeniu jest taka sama jak moc pobrana z x tranzystorami w kilku rdzeniach, albo inaczej, czy moc pobrana przez procesor o wydajności y z jednym rdzeniem jest taka sama jak moc pobrana przez procesor z wieloma rdzeniami i wydajnością y. Mi intuicyjnie wydaje się, że wielordzeniowe pobierają mniej energii, jednak nie mam pewności.- 34 odpowiedzi
-
- przetwarzanie wielowątkowe
- program
-
(i 3 więcej)
Oznaczone tagami:
-
Programistów czeka sporo pracy
andrew102 odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
w aplikacjach biurowych (pomijając hurtownie danych, bazy danych) myślę, że optymalizacja, pod względem wielowątkowości jest nie potrzebna, a mniej lub bardziej stosuje się wielowątkowość, pozwalając na interakcję użytkownika z programem, w trakcie, gdy wykonywane jest w tle inne polecenie, np. transmisja z bazą danych. Co innego we aplikacjach gdzie mamy do czynienia z np. obrazem, możemy przetwarzać w jednym momencie tyle pikseli, ile tylko mamy rdzeni (przy pewnych założeniach). Co pozwala na np. dodawanie efektów w czasie rzeczywistym do materiału video. Myślę, że również obliczenia naukowe, symulacje mogą być nie jednokrotnie prowadzone po części równolegle. Tak więc, myślę, że programistów, którzy muszą pisać przede wszystkim wydajny kod czekają duże zmiany w podejściu do programowania, nie będzie się już liczyć ilość pętli, ale również ich wzajemna niezależność. Co innego programiści aplikacji biurowych w .net, java, etc,- 34 odpowiedzi
-
- przetwarzanie wielowątkowe
- program
-
(i 3 więcej)
Oznaczone tagami:
-
Programistów czeka sporo pracy
andrew102 odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
mi się wydaje, że to przede wszystkim, od ilości tranzystorów, a nie ilości rdzeni zależy moc pobierana przez procesor, no i od częstotliwości, bo nie pamiętam już dokładnie, ale tranzystory w procesorze pobierają energię zdaje się tylko w chwili przełączania stanów, więc czym wyższe taktowanie tym większy pobór. Przy procesorach wielordzeniowych operacje graficzne bardzo prosto można wykonywać na równolegle, więc taktowanie pojedynczego rdzenia może być małe, a biorąc pod uwagę efektywność pracy, jest prawie taka, jakby zsumować częstotliwości wszystkich rdzeni.Co prawda jest w tedy więcej tranzystorów, które potrzebują energii, ale i tak sądzę, że taki układ łatwiej chłodzić, niż jakby pojedynczy rdzeń był taktowany z taką częstotliwością, aby wykonywał pracę układu wielordzeniowego (nie mówiąc o tym, że to jest w sumie nie możliwe).- 34 odpowiedzi
-
- przetwarzanie wielowątkowe
- program
-
(i 3 więcej)
Oznaczone tagami:
-
Programistów czeka sporo pracy
andrew102 odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Sądzę, że już teraz bez wzięcia pod uwagę mechaniki kwantowej nie udałoby się tworzenie najnowszych procesorów (mikroskopowy opis zjawisk transportu - przewodnictwo prądu w metalach i półprzewodnikach). Poza tym kto mówi, że tysiące rdzeni nie będzie właśnie dzięki tranzystorom złożonych z pojedynczych, elektronów.- 34 odpowiedzi
-
- przetwarzanie wielowątkowe
- program
-
(i 3 więcej)
Oznaczone tagami:
-
Przepraszam, że zbaczam trochę ztematu win3.11 ale uważam, że moja wypowiedź powinna zainteresować mojego przedmówcę, oraz być przykładem kiedy jednak nie warto pozostawać przy starych wersjach systemu. Przy zmianie z 95 na Xp to prawie na pewno niesie potrzeby zmiany sprzętu, jednak z kilku powodów w przychodzi zdrowia akurat dokonałbym takich zmian. Po pierwsze jeżeli przychodnia ma podpisany kontrakt z NFZ (większość w Polsce taki posiada), w ostatnim czasie konieczna była wymiana oprogramowania w większości przychodni, oczywiście aktualnie nikt nie tworzy oprogramowania na starsze niż XP, no może win2000 wersje windowsa, co zmusza do wymiany softu, po drugie sprawa bezpieczeństwa, oprogramowanie takie wymaga dostępu do sieci, nie rzadko posiada bazę danych, która też z założenia nie jest już pisana na win95,98 czy ME, ewentualnie ktoś zdołał ją uruchomić, ale nikt pewnie nie sprawdzał jej bezpieczeństwa. Dodatkowo obecnie coraz mniej produktów zabezpieczających (zapory, antywirusy) jest pisana pod kontem innych niż NT windowsów. Należy przy tym uświadomić sobie, że w bazie danych przychodni znajdują się poufne dane na temat pacjenta. Kolejnym powodem zmian może być ergonomia pracy, (nie mówię tutaj tylko o windowsie, ale o wydajności sprzętowej). Ciężko ogólnie porównywać ośrodek zdrowia do urządzeń, w przemyśle, pod kontrolą win3.11, które nie mają np. problemu z bezpieczeństwem (nikt ich nie zaatakuje bo niby jak, przez gniazdko energetyczne, ponadto, nawet działające w sieci przeważnie są w sieciach prywatnych, lan, czy też vlan). Reasumując ze względów bezpieczeństwa, i dlatego, że nfz wprowadza/wprowadził duże zmiany warto wykorzystać ten moment na migrację, która i tak musi się odbyć do tzw. formatu otwartego. Dodatkowo w przypadku przychodni, rzadko stosuje się indywidualne rozwiązania (które tak naprawdę tworzą główną barierę finansową przy migracji) Wydaje mi się, że może to być wydatek dla stanowiska powiedzmy 2500 zł, co wcale nie jest kosmiczną sumą dla ośrodków zdrowia. Jedyną barierą jest przyzwyczajenie użytkownika.
-
Programistów czeka sporo pracy
andrew102 odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
postęp miniaturyzacji pewnie i nie będzie szedł w nieskończoność, ale skoro można wyprodukować procesor z setkami milionów tranzystorów, to czemu nie z setkami rdzeni, poza tym pewnie się czepiam ale chyba od czasów inteli trójek (nie wszystkich) nie produkują już procesorów na sloty tylko na gniazda, więc ciężko może być zobaczyć nawet 2 rdzenie na slocie.- 34 odpowiedzi
-
- przetwarzanie wielowątkowe
- program
-
(i 3 więcej)
Oznaczone tagami:
-
Leczenie nadciśnienia bez... leków
andrew102 odpowiedział KopalniaWiedzy.pl na temat w dziale Medycyna
Tyle, że moje przepuszczenia oparte są na doświadczeniach zdobytych przy różnego typu pomiarach na laboratoriach miernictwa (niestety nie ciśnienia, bardziej związanych z elektroniką) i już przy 20 pomiarach można zauważyć, że uśredniony wynik jest bliższy rzeczywistej wielkości, niż większość pojedynczych wyników, co dopiero kiedy zrobi się tych pomiarów kilkaset. Ponadto jeżeli nawet założymy, że błąd jest na poziomie 5% no to zgodnie ze sztuką powinno się podać dla nas najgorszą wartość, ewentualnie kilka wartości charakterystycznych(np.: najgorszy, uśredniony i najlepszy przypadek ). Czyli powiedzmy że miernik przy pomiarach odpowiednio podał 150 przed i 160 po zabiegu, w takim razie analizując wyniki przy najgorszej dla nas opcji, czyli wynik 150 zawyża się o 5% i wychodzi 157,5 a wynik 170 zaniża się o 5% i wychodzi 161,5 czyli różnica wynosi 4 (co jest mniejsze od 5% z 150 czy też z 170) ale w żadnym wypadku nie można mówić o tym, że nie można brać jej pod uwagę, bo jest mniejsza od błędu pomiaru. Więc nawet zakładając, że błąd przy wielu pomiarach jest dalej na tym samym poziomie (zaznaczam, że moim zdaniem tak nie jest i ciężko mówić w sumie, żeby to było tylko moje zdanie), nie wyklucza to w tym przypadku podania wartości mniejszej niż wynosi błąd pomiaru. W taki sposób jednak traktuje się tylko pojedyncze pomiary, ponieważ przy większej liczbie pomiarów rozkład wartości błędu jest równomierny i maleje z każdym pomiarem. Jaki sens miałoby badanie 1000 osób, a nie np. tylko 100. Naturą każdego pomiaru jest to, że im więcej tym lepiej, a lepiej znaczy dokładniej, bliżej rzeczywistych wyników. Nie wiem w jaki sposób jeszcze można to wytłumaczyć, trzeba byłoby sięgnąć po wzory matematyczne, potem je wyjaśniać, a w końcu są wakacje.- 29 odpowiedzi
-
- dr James W. Anderson
- metody relaksacyjne
-
(i 3 więcej)
Oznaczone tagami:
-
Myślę, że zgłaszać powinni, nie tylko wyżsi rangą, ale i niżsi, a do tego powinno być to też punktowane, dla zachęcenia (wiem, że jest to coś w stylu: uprzejmie donoszę ..., ale bez tego wikipedia straci na wiarygodności), jednak fałszywe oskarżenia powinny spotykać się z odbieraniem punktów. Co do poziomu głosujących, wydaje się być rozsądne, aby głosowali, ci którzy mają wyższą rangę, jednak biorąc ludzi z innych dziedzin, głosowanie może nie być merytoryczne, ponieważ głosujący mogą nie znać się na konkretnym temacie. Zdaje sobie sprawę również, że z czasem mogą powstać coś w rodzaju stanowisk pracy, dla wandali, którzy będą mieli za zadanie np. oczernianie konkurencji, bądź reklamę własnej firmy/zleceniodawcy, przed takimi będzie bardzo ciężko chronić wiki. Co do zapraszanie innych firm do wiki, sądzę, że firmy mają już swoje konta (może nie do końca jawne) jednak problemem nie jest np. samo hasło intel dla firmy intel, lecz np. jej brak, przy hasłach typu procesor, bądź innych, gdzie np. będzie tylko AMD. Co do trzeciej fazy mojego przedmówcy i dyskusji, to wiki już coś takiego posiada i nazywa się to właśnie dyskusja, ciekawym rozwiązaniem mogłoby być jak pisze macintosh alternatywna definicja na samej stronie artykułu. Jednak i wydaje mi się, że bez weryfikacji i tak może to stanowić problem. Co do rejestracji, myślę, że ludzie chętni napisać artykuł, nie byli by aż tak zniechęcani, muszą być świadomi tego, że to dla dobra między innego ich artykułu, a ktoś kogo zniechęca sama rejestracja - zastanawiam się czy napisze doby artykuł, jeżeli nie chce mu się rejestrować, a ma poświęcić w cale nie minutę na napisanie artykułu, co innego jakieś poprawki, mógłby np. dyskutować na temat artykułu bez swojego konta.
-
mnie bardziej chyba zniechęcałoby, gdyby ktoś edytował, zamieszczał błędne notki w moim temacie, niż proces rejestracji, który pokrótce przez wikipedię wyjaśnionych przyczyn musiałbym, przejść, ewentualnie można stworzyć możliwość przesyłania wiadomości na temat znalezionych błędów do opiekunów tematu.
-
myślę, że przede wszystkim powinni blokować możliwość edycji, dodawania i usuwania tematów tym którzy łamią reguły, a nowe konta powinny być tworzone na zasadzie zaproszeń i posiadać rangi, dzięki którym można w pewien sposób ocenić rzetelność informacji, jednak zdaje sobie sprawę, że to jest jedynie półśrodek.
-
Niestety wandalizm w internecie jest faktem , uważam zainteresowanie organizacji zaradzeniu temu za jak najbardziej słuszne, nawet kosztem utraty głównej cechy wiki, którą jest możliwość swobodnej edycji stron. Sądzę, że z czasem mogą zacząć pojawiać się np. linki z reklamami, bądź subiektywne opinie na jakiś temat. Mam nadzieje, że uda się im znaleźć sposób, na zaradzenie wandalizmom. Co do przyrostu/edycji stron wydaje mi się, że nie jest on już tak duży jak kiedyś, i da się nad tym zapanować.
-
Programistów czeka sporo pracy
andrew102 odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
uważam, że przykład dokera z 2*2+2 doskonale oddaje problem wielowątkowości, ale wydaje mi się, że należy pisać tak programy, aby jak najkrótsze sekwencje były niezależne, ponieważ wtedy można efektywniej wykorzystać rdzenie (jeden wątek czeka krócej na zakończenie innego), trudno też mówić o niezależności wątków, przeważnie posiadają dostęp do wspólnych danych, dysków, więc długie wątki mogą blokować dane, przez co w związku z integralnością również inne wątki. Ciekawi mnie na ile ten problem dotyczy wirtualnych maszyn np. java, czy też .NET, co prawda java pozwala pisać programy korzystając z wielowątkowości, ale nie jestem pewien na ile jest to "tłumaczone" na wątki przez maszynę wirtualną. Jeszcze dodam, że moim zdaniem żaden software czy też hardware nie zrzuci z programisty konieczności zmienienia podejścia do pisania kodu.- 34 odpowiedzi
-
- przetwarzanie wielowątkowe
- program
-
(i 3 więcej)
Oznaczone tagami:
-
Z tego co wiem, to jeszcze duża ilość urządzeń przemysłowych działa na tym oprogramowaniu, a koszty ewentualnych wymian mogą okazać się duże, ponieważ mogą wymagać napisania nowych sterowników. Przypomina mi się historia NASA, które parę lat temu skupowało stary sprzęt między innymi procesory 486 ponieważ oprogramowanie do lotów w kosmos było testowane przez wiele godzin (zdaje się więcej niż 100 000) właśnie na takich procesorach i wymiana na nowe wiązałaby się z koniecznością ponownych testów.
-
Leczenie nadciśnienia bez... leków
andrew102 odpowiedział KopalniaWiedzy.pl na temat w dziale Medycyna
Nie wiem ile osób brało udział w badaniach, ale myślę, że błąd jest nie większy od 1% a pewnie i znacznie niższy. Jeszcze raz zaznaczę, że ciężko byłoby tak "sterować" błędami, żeby zaniżać tam gdzie trzeba i zawyżać tam gdzie trzeba wartość rzeczywistą, a jedynie w tedy można byłoby mówić że błąd pomiaru dla dużej ilości badanych jest taki sam jak dla pojedynczych. Inaczej po co w ogóle mówić o statystycznych metodach pomiarów.- 29 odpowiedzi
-
- dr James W. Anderson
- metody relaksacyjne
-
(i 3 więcej)
Oznaczone tagami:
-
Częściowe szyfrowanie nie pomaga
andrew102 odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Ciekawe ile czasu, zasobów ludzkich i kasy te badania zabrały, lepiej pograliby sobie w jakieś gry albo co, zamiast pisać o rzeczach, które są dość oczywiste, i w pełni zgodne z zasadami projektowania oprogramowania dla różnego typu platform, np. zapisywanie kopi aktualnie edytowanych plików w folderach tymczasowych, czy też w folderach aplikacji. Powinni podejść do tego bardziej konstruktywnie, np.: próbować tworzyć nowe normy, np.: dobrym pomysłem przy edycji plików jest zapisywanie jego kopi w tym samym folderze, nie jestem pewien ale ms office coś tam zapisuje w tym samym folderze z przedrostkiem ~. Gorzej z aplikacjami typu google desktop, gromadzącymi informację o całej przestrzeni dyskowej. Ale tu jest zasada coś za coś, albo chcemy mieć wyszukiwarkę, której funkcją jest wyszukiwanie informacji, przy tym jak najszybciej, albo bezpieczeństwo danych i wynikający z tego brak indeksowania plików,bądź stosowanie kodowania przy indeksowaniu. W każdym razie gratuluje naukowcom kolejnego wielkiego odkrycia ))- 4 odpowiedzi
-
- dane
- ukryta partycja
-
(i 1 więcej)
Oznaczone tagami:
-
Leczenie nadciśnienia bez... leków
andrew102 odpowiedział KopalniaWiedzy.pl na temat w dziale Medycyna
W żadnym przypadku, nie uważam, że pomiary są bezbłędne, ale przy dużej liczbie prób błędy statystyczne raz zaniżają, a drugim razem zawyżają ciśnienie, ale nie w sposób schematyczny, a przy dużej ilości prób rozkład tych błędów będzie taki sam to znaczy około 50% z błędem zaniżenia i 50% z błędem zawyżenia (zaznaczam, że około). Rozkład tych błędów będzie również równomierny wśród badań przed zabiegiem jak i po zabiegu. Dlatego można przyjąć, że błąd statystyczny wraz ze wzrostem pomiarów dąży do zera, nie twierdzę jednak, że jest zerowy. Co do błędu systematycznego, zazwyczaj jest on określony co do znaku (albo zaniża albo zawyża wartość rzeczywistą ale dla wszystkich pomiarów tak samo co do znaku), i jest stały dla każdego pomiaru, w związku z tym dotyczy wszystkich pomiarów, więc różnica dwóch pomiarów jest obarczona również błędem ale jest on mały (np. ciśnienie przed terapią = 150, po 145 wiadomo, że błąd systematyczny może wynosić np. 5% - względny błąd, bądź 5 - stała wartość, więc 150-145=5, jeżeli jest to stała wartość nie ma wpływu na wynik, jeżeli jest to 5% to z 5 jest to bardzo mało). Co do materiałów, muszę przyznać, że nie pamiętam z jakich książek łożyskowałem, ale na polskiej wikipedi jest to dobrze opisane pod różnymi hasłami.- 29 odpowiedzi
-
- dr James W. Anderson
- metody relaksacyjne
-
(i 3 więcej)
Oznaczone tagami:
-
Leczenie nadciśnienia bez... leków
andrew102 odpowiedział KopalniaWiedzy.pl na temat w dziale Medycyna
Nie do końca wiem o jakie różne czynniki chodzi (jeżeli wielkość rzeczywista się zmienia, a aparat podaje jej wartość to nie można mówić o błędzie pomiaru, chyba że to przyrząd pomiarowy wywołuje takie zmiany, ale w tedy producent bierze pod uwagę taki błąd przy określaniu klasy sprzętu, ale, zalicza się je do błędu statystycznego, który raz będzie zawyżał, a innym razem zaniżał pomiar, więc po pewnej liczbie pomiarów wartość tego błędu będzie bliska zera. Co do klasy urządzenia określa ona błąd maksymalny urządzenia, który jest jednocześnie maksymalną wartością błędu systematycznego. Przy zachowaniu odpowiednich parametrów pomiaru stałych dla wszystkich badanych (np. badani przed pomiarem muszą siedzieć przez 5 minut po czym rozpoczyna się pomiar, etc.) rzeczywista wartość powinna pozostawać bez zmian, ściślej zmiany podczas pomiarów jednej osoby powinny być zbliżone, co prowadzi do tego, że mamy różnicę dwóch pomiarów z podobnym błędem dającą wynik praktycznie nie obarczony tym błędem (wartości błędu się odejmują). Oczywiście są przypadki, w których błędy będą się od siebie różnić nawet znakiem, w takich przypadkach błąd różnicy pomiędzy badanymi ciśnieniami będzie większy, ale takie przypadki należą do rzadkości, a jeśli się pojawiają można je nawet usunąć za pomocą odpowiednich reguł. Jeszcze inaczej, żeby te 3% wynikało z błędu pomiarów, mierzący musieliby z góry wiedzieć które pomiary będą zawyżane (przez zabiegiem), a które zaniżane (po zabiegu), to taj jak gdyby przewidzieć, kiedy wypadnie orzeł, a kiedy reszka, przy kolejnych 100 rzutach, nie da się, wiadomo tylko, że wypnie mniej więcej tyle samo razy (przez analogię raz ciśnienie zostanie podwyższone w skutek błędu, a raz obniżone) Dodam jeszcze, że nie tak dawno miałem na studiach podstawy miernictwa, a potem laborki z tego więc o pomiarach co nie co wiem- 29 odpowiedzi
-
- dr James W. Anderson
- metody relaksacyjne
-
(i 3 więcej)
Oznaczone tagami:
-
Leczenie nadciśnienia bez... leków
andrew102 odpowiedział KopalniaWiedzy.pl na temat w dziale Medycyna
Pozwolę się uczepić debaty na temat błędów, błąd pomiaru składa się w uproszczeniu z błędu systematycznego (ten błąd zmienia wartość wszystkich pomiarów według pewnej funkcji, w prostych pomiarach jest to współczynnik, bądź jakaś stała wartość) i błędu statystycznego (przy każdym pomiarze wartość może być różna, nie da się jej przewidzieć). Po krótkim wstępie do rzeczy jak już napisałem błąd systematyczny dotyczy wszystkich pomiarów, więc dotyczy pomiaru po "zabiegu" jak i przed, więc różnica tych dwóch pomiarów jest w bardzo małym stopniu obarczona błędem systematycznym (w uproszczeniu miernik zawsze pokazuje np mniej 5%), co pozwala na pominięcie błędu systematycznego w tego typu badaniach. Problem może stanowić błąd statystyczny, ale tylko przy małej ilości prób, w uproszczeniu, jeżeli prób jest odpowiednia ilość błąd ten dąży do zera jak zauważyli moi poprzednicy. Reasumując myślę, że nie można mówić o tym że wyniki badań mieściły się w granicach błędu pomiaru.- 29 odpowiedzi
-
- dr James W. Anderson
- metody relaksacyjne
-
(i 3 więcej)
Oznaczone tagami:
-
Co do znieczuleń, z tego co wiem komar znieczula, pewnie ta super igła nie, ale jej średnica i głębokość na jaką wchodzi jest na tyle małe, że myślę, że ukucie jest bezbolesne, co do samego pobrania krwi, to chyba rozwiązali to pompką, która impulsowo pobiera krew. No ale wszystko byłoby fajnie, gdyby jeszcze tak za kilka lat takie coś można było znaleźć w Polskich szpitalach, no ale myślę, że jeszcze długo nie. Samo opracowanie technologi produkcji na skalę przemysłową zdaje się być rzeczą trudną.
- 5 odpowiedzi
-
- aparat gębowy
- igła
-
(i 1 więcej)
Oznaczone tagami: