Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Francuski analityk twierdzi, że zastosowany w Viście interfejs użytkownika jest krokiem w tył w porównaniu do interfejsu Windows XP. Andreas Pfeiffer w ubiegłym roku rozpoczął testy Mac OS X-a i Windows XP. Gdy ukazała Vista, dodał ją do swojego zestawu testowego.

Sprawdzał on opóźnienie menu, standardowe zadania wykonywane przez pulpity systemów oraz precyzję pozycjonowania kursora myszy.

Opóźnienie menu to czas, jaki system operacyjny potrzebuje, na wyświetlenie menu. W Windows nie następuje to natychmiastowo. Nie ma to związku z prędkością czy wydajnością. To świadoma decyzja projektantów – mówi Pfeiffer.

Z przeprowadzonych badań wynika, że graficzny interfejs Windows Visty sprawuje się gorzej, niż Windows XP. Jest on, zdaniem Pfeiffera, o 20% mniej wydajny. Windows XP był pod tym względem znaczącym krokiem naprzód w porównaniu z Windows 98. Vista to powrót do Windows 98 – mówi badacz.

Badania standardowych zadań pulpitu, takich jak otwieranie katalogów, kasowanie plików itp. wykazało, że Vista z interfejsem Aero jest o 14% wolniejsza niż XP. Test precyzyjnego pozycjonowania kursora, co jest bardzo ważne dla osób zajmujących się profesjonalnie grafiką, ale i zwykły użytkownik może odczuć niedogodności związane z nieprecyzyjnym pozycjonowaniem, również nie wypadł korzystnie dla Visty. Najnowszy OS Microsoftu sprawuje się w nim aż o 30% gorzej niż XP.

Przełączenie pulpitu z Aero na Basic lub Classic poprawia wyniki Visty. Trzeba jednak pamiętać, że nowy pulpit to jedna z technologii, która ma przekonać użytkowników do korzystania z nowego OS-u. Interfejs Classic pozwala Viście na dorównanie systemowi XP pod względem opóźnień menu, ale najnowszy OS wciąż wypada gorzej w operacjach na pulpicie.

Oba systemy Microsoftu wypadły gorzej niż Mac OS X. Celem Pfeiffera było jednak nie porównanie, ale sprawdzenie, jak sprawuje się Vista. Tutaj ocena badacza jest jednoznaczna: Vista to krok wstecz.

 

Share this post


Link to post
Share on other sites
Guest dragonfuzio

Brak komentarza jest wystarczającym komentarzem,

Share this post


Link to post
Share on other sites
Guest Cezar

"Oba systemy Microsoftu wypadły gorzej niż Mac OS X."

Teraz prosimy jeszcze o dowód tego, że 2+0=2.

Share this post


Link to post
Share on other sites
Guest sdf

Jakieś brednie. Rozumiem może sie francuskiemu badaczowi nie podobać interface Visty ale niech nie wciska nam kitu i nie porównuje Visty do Win 98. Oczywiste jest że dla grafików najlepszy jest Mac i jakieś gadanie o pozycjonowaniu kursora jest głupie.

Share this post


Link to post
Share on other sites
Guest Daraya

@sdf: Facet. Wez pomysl zanim cos napiszesz i czytaj tekst ze zrozumieniem. Oczywiscie Vista pod wzgledem nowoczesnosci jest lepsza od Win98, jednakze jesli chodzi o czasy reakcji menu na klik to calkiem mozliwe ze jest jak w Win98. Ja osobiscie lubie jak mi sie cos wyswietla od razu po kliknieciu myszki a nie tak jak to zwykle jest w Windowsach - po jakims czasie. Irytuje mnie to ze sa jakies czasu opoznienia. Trudno... Jak sie komus nie chce zoptymalizowac kodu to jego sprawa. Ja z Visty korzystal nie bede i to nie tylko ze wzgledow na czasu reakcji menu czy pozycjonowania kursora. Aha... to gadanie o pozycjonowaniu kursora wcale nie jest glupie, dokladnosc i precyzja kursora to nie tylko atuty dla grafikow, panie kolego... Jak tego nie rozumiesz i uwazasz ze to glupie to odsylam do DOS'a. tam to rzeczywiscie nie ma znaczenia ;)

Share this post


Link to post
Share on other sites
Guest grz

Daraya - co racja to racja

Share this post


Link to post
Share on other sites
Guest Sweet

Ja uważam że Vista jest kolejnym nieudanym monstrum koncernu z Redmond. Jej jedynym atutem jest wygląd i nic poza tym. Może jeszcze ta nowa wyszukiwarka, choć i ona bez odpowiedniego sprzętu nie ma wielkich możliwości. Vista jest zrobiona w taki sposób, aby zachwycić wyglądem. Może i to się udało, bo jest ładna, ale co z tego, skoro jej osiągi są mizerne. Jeśli chodzi o win98, to zdaje mi sie że on był chyba najlepszym systemem MS. Nie miał tak wiele błędów jak inne systemy, m.in Millenium, który był jedna wielką dziurą. Zdaje mi sie gdyby nie gry na systemie direct3D to mało kto korzystałby z tworów MS.

Share this post


Link to post
Share on other sites
Guest Do Sweet
Zdaje mi sie gdyby nie gry na systemie direct3D to mało kto korzystałby z tworów MS.

 

Popieram, gdyby nie ostry marketing oraz kontrowersyjne działania M$ to gry powstawałyby w równym stopniu na OpenGL a dzieki temu było by wiecej gier na inne systemy.

 

Przykładem są IdSoftware lub EpicGames którzy nie zapominaja o Linuksowych graczach.

Share this post


Link to post
Share on other sites
Guest Adam Chodera

Dzieci, dzieci, szybkosc pojawiania sie menu w windowsie zmienia sie jednym wpisem w rejestrze, domyslnie jest ustawione lekkie opoznienie, ktore ja osobiscie usunalem poniewaz nie lubie czekac. Tak przy okazji ja mam 16 lat i o tym wiem a jakis francuski analityk prowadzi jakies bzdurne testy. TEN TEST JEST BEZCELOWY, poniewaz opoznienie wyswietlania menu sie USTAWIA i nie jest to trudne. Zgadzam sie ze gdyby nie DirectX i gry wychodzace pod niego to bym nie uzywal windowsa tylko gral na linuksie, bo poza graniem na linuksie da sie tez popracowac, programowac, modelowac, da sie wszystko duzo lepiej, sprawniej i wydajniej. Precyzja pozycjonowania myszki, nie no ludzie pytam sie CO TO MA BYC? Chcesz zeby ci sie kursor lepiej poruszal to sobie kup lepsza myszke z wieksza ilosci DPI i wieksza czestotliwosci taktowania np 100Hz. I tyle.

 

adamski8@gmail.com

Share this post


Link to post
Share on other sites
Guest Karol

Pracuje z Windows Vista i Office 2007 od ponad miesiąca.

Muszę powiedzieć, że pracuje się o wiele lepiej niż na XP.

Ten nowy user expirience jest wyższy i nie widzę spadku wydajności, a co najwyżej jej wzrost.

Jest wiele małych kroków naprzód, które dają całkiem niezły skok.

 

A tak swoją drogą zastanawiam się dlaczego MacOSX jest lepszy do grafiki jeśli weźmiemy jakąś aplikację taką samą na Windows i MacOSX? Tak naprawdę jeśli są takie same aplikację i realizuje swoje zadania to system nie powinien mieć takiego znaczenia.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Stan serca łatwo sprawdzić za pomocą prostego testu chodzenia po schodach, dowiadujemy się z badań, których wyniki przedstawiono podczas kongresu naukowego Europejskiego Towarzystwa Kardiologicznego (ESC). Doktor Jesús Peteiro, kardiolog ze Szpitala Uniwersyteckiego w A Coruña w Hiszpanii mówi, że jeśli wspięcie się na cztery zestawy schodów, składające się w sumie z 60 stopni, zajmuje Ci więcej niż 1,5 minuty, to stan twojego serca nie jest optymalny i warto zgłosić się do lekarza.
      Peteiro prowadził badania, których celem było sprawdzenie związku pomiędzy codziennymi czynnościami, takimi jak wchodzenie po schodach, a wynikami testów laboratoryjnych badających stan serca. Chcieliśmy znaleźć prostą i tanią metodę oceny stanu zdrowia serca. To ułatwiłoby lekarzom wychwycić pacjentów, których trzeba skierować na dalsze badania, mówi uczony.
      W badaniach wzięło udział 165 pacjentów skierowanych na próby wysiłkowe, o których wiadomo było, że albo cierpią na chorobę niedokrwienną serca, albo występują u nich objawy wskazujące na to schorzenie.
      Uczestnicy badań spacerowali bądź biegali na bieżni. Tempo stopniowo zwiększano, a ćwiczenie prowadzono do utraty tchu. Oceniano w ten sposób ich ekwiwalent metaboliczny (MET). Następnie po odpoczynku trwającym 15–20 minut badani mieli w szybkim tempie bez zatrzymywania się wejść na cztery zestawy schodów (w sumie 60 stopni). Nie mogli przy tym biec. Mierzono czas przejścia schodów.
      Następnie naukowcy analizowali związek pomiędzy MET a czasem wejścia na schody. Okazało się, że osoby, które pokonywały schody w czasie krótszym niż 40–45 sekund to osoby, których MET wynosił powyżej 9–10. Z wcześniejszych badań wiemy zaś, że uzyskanie wyniku 10MET jest powiązane z niskim ryzykiem zgonu, wynoszącym nie więcej niż 1% w ciągu roku i nie więcej niż 10% w ciągu 10 lat. W kolei osoby, które na przebycie wspomnianych schodów potrzebowały co najmniej 1,5 minuty, to ludzie, którzy osiągnęli wynik niższy niż 8MET, a to oznacza, że w ich przypadku ryzyko zgonu w ciągu roku wynosi 2–4%, a w ciągu 10 lat jest to 30%.
      Co więcej, podczas testu wysiłkowego na bieżni naukowcy obrazowali na bieżąco serca badanych. Również i te wyniki porównano z „testem schodów” i okazało się, że 58% osób, które na pokonanie schodów potrzebowały więcej niż 1,5 minuty miało nieprawidłowo działające serce. Podobne zjawisko zauważono u 32% osób, które potrzebowały mniej niż 1,5 minuty na wejście po schodach.
      Peteiro mówi, że uzyskane wyniki można przełożyć na całą populację, nie tylko na osoby, z niepokojącymi objawami ze strony serca. Co więcej, w przypadku osób bez objawów, ryzyko zgonu jest mniejsze niż u osób z objawami.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W Europie zatwierdzono właśnie nowy test na obecność przeciwciał koronawirusa SARS-CoV-2. Jego skuteczność wynosi 99%. Test pozwala na stwierdzenie, czy już zetknęliśmy się z wirusem. Producent testu, brytyjska firma Abbott twierdzi, że do końca maja dostarczy milionów testów.
      Profesor Simon Clarke z University of Reading mówi, że pojawienie się powszechnie dostępnego wiarygodnego testu to znaczące wydarzenie. Ten test pozwoli stwierdzić, czy już się zetknęliśmy z koronawirusem i czy pojawiła się reakcja immunologiczna naszego organizmu. Nie powie nam natomiast, czy jesteśmy odporni na zarażenie. Posiadanie przeciwciał nie gwarantuje odporności. Może ją zapewniać, ale tego nie wiemy.
      Z wcześniejszych doświadczeń z koronawirusami wiemy, że po infekcji niektórymi z nich zyskujemy odporność na bardzo krótki czas. Jako, że SARS-CoV-2 to nowy wirus, nie wiemy, na jak długo zyskujemy na niego odporność.
      Nowy test wykrywa proteinę IgG, którą nasz organizm wytwarza po infekcji koronawirusem. Proteina może pozostawać w organizmie przez miesiące, a nawet lata.
      Producent testu informuje, że przetestował jego czułość na 73 pacjentach chorujących na COVID-19, u których pierwsze objawy choroby wystąpiły 14 dni przed wykonaniem testu. Okazało się, że czułość testu (czyli jego zdolność do prawidłowego wykrywania obecności przeciwciał), wynosi ponad 99%. Co równie istotne, swoistość testu (czyli zdolność do wykrywania braku przeciwciał), była badana na 1070 próbkach i wyniosła również ponad 99%.
      Nowy test pozwoli stwierdzić, ile osób w rzeczywistości chorowało na COVID-19, a tym samym pozwoli określić tempo rozprzestrzeniania się epidemii i śmiertelność nowej choroby.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Chcielibyście wiedzieć, jaka kombinacja antybiotyków najlepiej zadziała na konkretnego pacjenta? I znaleźć ją w 12, a może nawet w 6 godzin, na miejscu? A może marzy się wam przeszukiwanie tysięcy próbek naraz w poszukiwaniu swoistych przeciwciał? To wszystko umożliwia nowy chip stworzony przez naukowców z IChF PAN. Jest tani, szybki i wiarygodny. Może zastąpić szybkie testy immunochromatograficzne i daje pacjentom większe szanse na pokonanie zakażenia.
      Nowe narzędzie diagnostyczne tworzy zespół pod kierunkiem prof. Piotra Garsteckiego. W pracy opublikowanej w Micromachines badacze wykazali, że połączenie kilku różnych, prostych metod pozwala stworzyć przyjazny użytkownikom zestaw do badania wrażliwości bakterii na antybiotyki. Nowy chip wykorzystuje mniej odczynników i antybiotyków niż standardowy antybiogram na agarowej pożywce, a jego użycie jest tak proste jak Etestu. Użytkownik może też wybrać sposób wizualizacji wyników, np. wykorzystując metaboliczne wskaźniki obecności bakterii, barwniki fluorescencyjne albo efekt kolorymetryczny.
      Chcieliśmy zbadać antybiotykowrażliwość najprościej, jak tylko się da, nie tylko dla pojedynczej substancji bakteriobójczej, ale także dla ich kombinacji albo w różnych warunkach - wyjaśnia dr Ladislav Derzsi, jeden z autorów pracy nadzorujący projekt. By stworzyć nasz chip, połączyliśmy kilka rzeczy odkrytych zupełnie niezależnie. Wykorzystaliśmy np. standardowe techniki fotolitografii i litografii tworzyw sztucznych, powszechnie używane do produkcji tzw. laboratoriów chipowych (LOC), i połączyliśmy je z techniką druku bezkontaktowego na specjalnie dla nas zaprojektowanej maszynie. Dzięki połączeniu tych metod naukowcy są w stanie precyzyjnie zakraplać mikroskopijne ilości dowolnej cieczy w mikrodołki chipu na podobnej zasadzie, jak działają drukarki atramentowe lub laserowe. W prezentowanym badaniu zakraplane były roztwory antybiotyków w różnym stężeniu i różnych kombinacjach. Drukarki mają maleńkie dysze i wykorzystując siły piezoelektryczne, potrafią precyzyjnie dostarczać w żądany punkt określoną objętość atramentu: nanolitry, pikolitry, ba, nawet femtolitry - mówi dr Derzsi. My robimy podobnie, tyle że zamiast atramentu dostarczamy antybiotyki i nie na papier, lecz do mikrodołków z plastycznego elastomeru. Rozpuszczalnik, czyli woda, odparowuje, a to, co zostaje, to mikroskopijna dawka antybiotyku. W opisywanym badaniu mikrodołki były stosunkowo duże, miały 1 mm średnicy i pojemność ok. 0,67 mikrolitra. Na każdym chipie umieściliśmy 1024 takie celki. To o rząd wielkości więcej niż na standardowych płytkach, które mają 96 dołków i to mimo że nasza konstrukcja jest o połowę mniejsza. Co więcej, zmniejszając indywidualne rozmiary każdej celki, liczbę mikrodołków można zwiększyć nawet do 10000 na standardowych rozmiarów chip - dodaje naukowiec.
      By ułatwić korzystanie z nowej metody, badacze owijają chipy taśmą polimerową, by odciąć dostęp powietrza, a następnie poddają je działaniu próżni. W ten sposób sprzęt jest dostarczany do końcowego użytkownika w postaci sterylnej, w podciśnieniu. W wersji komercyjnej zapewne dodatkowo pakowalibyśmy chipy próżniowo tak, jak to się robi z żywnością - wyjaśnia dr Derzsi. Użytkownik musi tylko odpakować płytkę, wprowadzić roztwór bakterii zwykłą, dostępną na rynku pipetą, a potem dodać niewielką ilość oleju, który rozdziela dołki i pomaga uniknąć ich krzyżowego skażenia. Później trzeba już tylko włożyć płytkę do cieplarki i... czekać na wynik. Po zadanym czasie można odczytać, jaka kombinacja antybiotyków i w jakich stężeniach działa najlepiej; innymi słowy, zobaczyć, gdzie bakterie rosną niechętnie lub wcale.
      Wielką zaletą nowego systemu diagnostycznego jest jego elastyczność. Można wytwarzać sterylne zestawy pod dyktando odbiorcy, z różnymi antybiotykami w różnych kombinacjach. My badaliśmy na jednej płytce 6 pojedynczych antybiotyków w ośmiu różnych stężeniach i –  dla zwiększenia precyzji – w ośmiu powtórzeniach. Testowaliśmy też ich kombinacje, umieszczając w jednym mikrodołku po dwa z sześciu badanych antybiotyków i sprawdzając ich działanie w szeregu powtórzeń. Można zresztą badać połączenia wielu antybiotyków, inhibitorów i substancji pomocniczych, wstrzykując je do jednej celki w zadanych przez odbiorcę kombinacjach - mówi dr Derzsi - ale zwykle lekarze nie podają pacjentowi więcej niż dwóch, by nie przeciążać jego organizmu. Dzięki naszej metodzie mogą pobrać od chorego próbkę i sprawdzić, który antybiotyk lub jakie ich połączenie zadziała optymalnie w tym konkretnym przypadku, czyli zidywidualizować leczenie, zamiast polegać na statystycznych uogólnieniach. A przecież każdy z nas reaguje na terapię nieco inaczej, nawet jeśli chorobę wywołały te same mikroby. Chodzi o mikroflorę, indywidualną zmienność metabolizmu i wiele innych czynników. Można zatem powiedzieć, że opracowana w IChF PAN metoda to krok przybliżający nas w stronę medycyny spersonalizowanej. Z drugiej strony, to wielka pomoc nie tylko dla klinicystów, ale i dla badaczy próbujących znaleźć nowe, nieoczywiste połączenia antybiotykowe, które działałyby lepiej od tych powszechnie znanych.
      Choć praca zespołu prof. Garsteckiego skupiała się na antybiotykowrażliwości bakterii, sama metoda ma potencjał, by po wprowadzeniu pewnych zmian można ją było wykorzystywać także np. do identyfikacji swoistych genów albo przeciwciał. Zwłaszcza że byłoby to ekonomiczne. Pojedyncza płytka nie powinna kosztować więcej niż 5 euro. Metody mikrofluidyczne mają jeszcze jedną zaletę: poszukując nowych leków, naukowcy często mają do dyspozycji bardzo ograniczoną liczbę potencjalnie leczniczych substancji. Dzięki drukowi bezkontaktowemu mogą przetestować więcej różnych stężeń i kombinacji takich leków in spe, zanim zabraknie im substratu.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy opracowali czuły i swoisty test z krwi, który pomaga wykryć ponad 50 typów nowotworów. Wyniki badań ukazały się w piśmie Annals of Oncology.
      Test opracowany przez firmę GRAIL wykorzystuje całogenomowe sekwencjonowanie bisulfitowe (ang. whole genome shotgun bisulfite sequencing, WGSBS) do określenia wzorca metylacji. W komórkach nowotworowych jest on często wyraźnie inny niż w prawidłowych komórkach. Gdy komórki nowotworowe obumierają, ich DNA z grupami metylowymi dostaje się do krwiobiegu. To właśnie pozakomórkowe DNA (ang. cell-free DNA, cfDNA) z osocza jest analizowane przez nowy test.
      Nasze wcześniejsze badania wykazały, że testy oparte na metylacji dają przy wykrywaniu licznych form nowotworów w próbkach krwi lepsze wyniki niż tradycyjne metody sekwencjonowania DNA. Wyniki nowego studium demonstrują, że takie testy są wykonalną metodą skryningu ludzi pod kątem szerokiej gamy nowotworów - przekonuje dr Geoffrey Oxnard z Dana-Farber Cancer Institute.
      Podczas studium naukowcy pracujący pod przewodnictwem specjalistów z Dana-Farber i Mayo Clinic wykorzystali test do analizy pozakomórkowego DNA z 6689 próbek krwi (2482 pochodziły od osób z nowotworem, a 4207 od osób bez nowotworu). Próbki od pacjentów z nowotworem reprezentowały ponad 50 typów nowotworów, w tym raka piersi, trzustki, jajnika czy jelita grubego, a także białaczkę limfocytową i szpiczaka mnogiego.
      W ramach swoich badań naukowcy stworzyli też maszynowy model diagnozujący. Trenowano go na zestawie 4720 próbek, a sprawdzono na osobnym zestawie 1969 próbek. Maszyna uzyskała stałą wysoką swoistość sięgającą 99%. Czułość rozpoznania była uzależniona od tego, czy model miał do rozważenia wszystkie możliwe nowotwory, czy też jedynie określony ich zestaw. W tym drugim przypadku trafność diagnozy była zdecydowanie wyższa.
      Ogólna swoistość testu wynosiła 99,3%. Czułość dla stopni zaawansowania I-III dwunastu wybranych rodzajów nowotworów, odpowiadających za ~63% nowotworowych zgonów w USA rocznie - raka odbytu, raka pęcherza moczowego, raka jelita grubego, raka przełyku, nowotworów głowy i szyi, nowotworów wątroby i przewodów żółciowych, raka płuca, chłoniaka, raka jajnika, raka trzustki, raka żołądka i nowotworów komórek plazmatycznych - wynosiła 67,3%. O ile w grupie tych 12 nowotworów czułość dla stopnia I wynosiła 39%, o tyle dla stopni II, III i IV wynosiła, odpowiednio, 69%, 83% i 92%. Widać więc wzrost czułości wraz ze wzrostem stopnia zaawansowania nowotworu.
      Tkanka pochodzenia (ang. tissue of origin, TOO) była przewidywana w 96% próbek z sygnałem nowotworowym; wśród nich lokalizację TOO trafnie określono w 93%.
      Nasze wyniki pokazują, że opisywane podejście - testowanie cfDNA z krwi - pozwala wykryć szeroką gamę typów nowotworów we wszelkich stopniach zaawansowania, z czułością i swoistością zbliżającą się do poziomu koniecznego do skryningu na poziomie populacyjnym - podsumowuje Oxnard.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Amerykański Sąd Najwyższy jednogłośnie oświadczył, że nie wolno patentować testów medycznych, które polegają na badaniu zależności pomiędzy dawkami leków a ich efektami terapeutycznymi. Sędzia Stephen Breyer, który napisał uzasadnienie wyroku stwierdził, że prawa natury nie mogą być patentowane same w sobie lub w połączeniu z procesami składającymi się z dobrze rozumianych, standardowych, konwencjonalnych działań.
      Sporna sprawa dotyczyła interakcji pomiędzy tiopurynami a metabolitami z krwi pacjenta. Firma Prometheus Laboratories opracowała metodę, pozwalającą lekarzom na określenie bezpiecznej skuteczniej dawki tiopuryn. Po jakimś czasie nieco inną metodę opracowali lekarze z Mayo Clinic. Wówczas Prometheus pozwała klinikę o naruszenie dwóch patentów.
      Spór dotarł aż do Sądu Najwyższego.
      Sędzia Breyer stwierdził, że podstawą wynalazku Prometheusa są prawa natury, a konkretnie „związek pomiędzy koncentracją pewnych metabolitów we krwi, a prawdopodobieństwem, iż dawka tiopuryn będzie nieskuteczna bądź szkodliwa“. Sędzia zauważył, że Einstein nie mógłby opatentować swojego słynnego twierdzenia, opracowując proces, który polegałby na poinformowaniu operatorów akceleratorów cząstek, by brali pod uwagę prawo dotyczące produkcji energii z masy. Zdaniem sędziego Prometheus robi dokładnie to samo, po prostu mówi lekarzom, by zebrali dane, na podstawie których mogą określić prawdopodobieństwo pojawienia się interferencji pomiędzy metabolitami a tiopurynami.
      Sąd Najwyższy odrzucił też sugestię rządu federalnego, by wstępnie zezwolić na przyznawanie podobnych patentów, a które mogłyby być obalane jeśli udowodni się ich oczywistość.
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...