Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Program naprawi sprzęt

Rekomendowane odpowiedzi

Na University of Michigan powstało oprogramowanie, które wyszukuje błędy w układach scalonych i proponuje najlepszy sposób ich naprawienia. Może ono przyczynić się do powstania doskonalszych chipów.

Błędy w układach to problem, który coraz bardziej dotyczy ich wytwórców. Im bardziej miniaturyzują układy scalone, tym więcej błędów w nich powstaje. Obecnie usunięcie usterek z prototypowego procesora może trwać nawet rok, co znacznie opóźnia jego rynkowy debiut i zwiększa koszty produkcji. Wspomniane oprogramowanie nie tylko skróci cykl produkcyjny i obniży koszty, ale spowoduje też, że na rynek będą trafiały układy z mniejszą liczbą błędow.

Profesor Rob Rutenbar z Carnegie Mellon University, tak mówi o błędach: To wciąż nierozwiązany problem. Prawdopodobnie Intel ma jakieś zaawansowane technologie [usuwania błędów – red.], ale o tym nie wspomina. Z tego, co wiemy, błędy takie usuwa się ręcznie. Nie jest to proces mocno zautomatyzowany. Dodaje przy tym, że istnieje bardzo mało fachowej literatury na temat błędów występujących w półprzewodnikach.

Z kolei profesor Igor Markov z University of Michigan zauważa, że ręczne usuwanie błędów to metoda bardzo niedoskonała i prawdopodobnie wszystkie układy scalone, które trafiają na rynek, zawierają błędy. Przypomina, że na stronie Intela można znaleźć spis 130 usterek sprzętowych, które występują w laptopach. Większość z nich można usunąć za pomocą odpowiedniego oprogramowania, ale około 20 nie można poprawić.

Eksperci zauważają, że obecnie usunięcie błędu jest niezwykle trudne. Gdy już się go zidentyfikuje, to nie zawsze wiadomo, w jaki sposób należy go poprawić. Natura usterek może być bardzo różna – od zbyt blisko siebie wydrukowanych ścieżek, po tranzystory umieszczone w nieodpowiednich miejscach. Po naprawieniu jednej usterki często okazuje się, że jej poprawienie spowodowało powstanie innego błędu. Wprowadzanie poprawek kosztuje kolejne miliony dolarów, co oczywiście odbija się na cenie gotowego produktu.

Obecnie podczas testów inżynierowie przepuszczają przez prototyp sygnały elektryczne i szukają w nich nieprawidłowości. Na tej podstawie starają się poprawić układ.

Oprogramowanie, które powstało w Michigan, samodzielnie testuje chipy i szuka błędów. Gdy je znajdzie, określa, w których częściach procesora powstały i testuje te części. W ten sposób, wykluczając kolejne fragmenty układu, jest w stanie precyzyjnie określić miejsce, które należy poprawić. Gdy już znajdzie błąd, przeprowadza symulacje różnych metod jego poprawienia i proponuje tę najskuteczniejszą.

Profesor Rutenbar mówi, że jedną z największych zalet programu jest fakt, iż podaje on często rozwiązania niezgodne z naszą intuicją. Pewne błędy człowiek naprawiłby zupełnie inaczej, niż proponuje to program. Jednak metody zaproponowane przez oprogramowanie, okazują się równie skuteczne, ale tańsze i szybsze w wykonaniu. Gdyby to człowiek miał zdecydować, raczej nie wpadłby na takie rozwiązanie – mówi Rutenbar.

Testy wykazały, że program potrafi znaleźć i naprawić około 70% poważnych błędów. Wyszukiwanie konkretnej usterki zajmuje mu nie, jak ludziom, tygodnie, ale kilka dni.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Stan serca łatwo sprawdzić za pomocą prostego testu chodzenia po schodach, dowiadujemy się z badań, których wyniki przedstawiono podczas kongresu naukowego Europejskiego Towarzystwa Kardiologicznego (ESC). Doktor Jesús Peteiro, kardiolog ze Szpitala Uniwersyteckiego w A Coruña w Hiszpanii mówi, że jeśli wspięcie się na cztery zestawy schodów, składające się w sumie z 60 stopni, zajmuje Ci więcej niż 1,5 minuty, to stan twojego serca nie jest optymalny i warto zgłosić się do lekarza.
      Peteiro prowadził badania, których celem było sprawdzenie związku pomiędzy codziennymi czynnościami, takimi jak wchodzenie po schodach, a wynikami testów laboratoryjnych badających stan serca. Chcieliśmy znaleźć prostą i tanią metodę oceny stanu zdrowia serca. To ułatwiłoby lekarzom wychwycić pacjentów, których trzeba skierować na dalsze badania, mówi uczony.
      W badaniach wzięło udział 165 pacjentów skierowanych na próby wysiłkowe, o których wiadomo było, że albo cierpią na chorobę niedokrwienną serca, albo występują u nich objawy wskazujące na to schorzenie.
      Uczestnicy badań spacerowali bądź biegali na bieżni. Tempo stopniowo zwiększano, a ćwiczenie prowadzono do utraty tchu. Oceniano w ten sposób ich ekwiwalent metaboliczny (MET). Następnie po odpoczynku trwającym 15–20 minut badani mieli w szybkim tempie bez zatrzymywania się wejść na cztery zestawy schodów (w sumie 60 stopni). Nie mogli przy tym biec. Mierzono czas przejścia schodów.
      Następnie naukowcy analizowali związek pomiędzy MET a czasem wejścia na schody. Okazało się, że osoby, które pokonywały schody w czasie krótszym niż 40–45 sekund to osoby, których MET wynosił powyżej 9–10. Z wcześniejszych badań wiemy zaś, że uzyskanie wyniku 10MET jest powiązane z niskim ryzykiem zgonu, wynoszącym nie więcej niż 1% w ciągu roku i nie więcej niż 10% w ciągu 10 lat. W kolei osoby, które na przebycie wspomnianych schodów potrzebowały co najmniej 1,5 minuty, to ludzie, którzy osiągnęli wynik niższy niż 8MET, a to oznacza, że w ich przypadku ryzyko zgonu w ciągu roku wynosi 2–4%, a w ciągu 10 lat jest to 30%.
      Co więcej, podczas testu wysiłkowego na bieżni naukowcy obrazowali na bieżąco serca badanych. Również i te wyniki porównano z „testem schodów” i okazało się, że 58% osób, które na pokonanie schodów potrzebowały więcej niż 1,5 minuty miało nieprawidłowo działające serce. Podobne zjawisko zauważono u 32% osób, które potrzebowały mniej niż 1,5 minuty na wejście po schodach.
      Peteiro mówi, że uzyskane wyniki można przełożyć na całą populację, nie tylko na osoby, z niepokojącymi objawami ze strony serca. Co więcej, w przypadku osób bez objawów, ryzyko zgonu jest mniejsze niż u osób z objawami.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Europie zatwierdzono właśnie nowy test na obecność przeciwciał koronawirusa SARS-CoV-2. Jego skuteczność wynosi 99%. Test pozwala na stwierdzenie, czy już zetknęliśmy się z wirusem. Producent testu, brytyjska firma Abbott twierdzi, że do końca maja dostarczy milionów testów.
      Profesor Simon Clarke z University of Reading mówi, że pojawienie się powszechnie dostępnego wiarygodnego testu to znaczące wydarzenie. Ten test pozwoli stwierdzić, czy już się zetknęliśmy z koronawirusem i czy pojawiła się reakcja immunologiczna naszego organizmu. Nie powie nam natomiast, czy jesteśmy odporni na zarażenie. Posiadanie przeciwciał nie gwarantuje odporności. Może ją zapewniać, ale tego nie wiemy.
      Z wcześniejszych doświadczeń z koronawirusami wiemy, że po infekcji niektórymi z nich zyskujemy odporność na bardzo krótki czas. Jako, że SARS-CoV-2 to nowy wirus, nie wiemy, na jak długo zyskujemy na niego odporność.
      Nowy test wykrywa proteinę IgG, którą nasz organizm wytwarza po infekcji koronawirusem. Proteina może pozostawać w organizmie przez miesiące, a nawet lata.
      Producent testu informuje, że przetestował jego czułość na 73 pacjentach chorujących na COVID-19, u których pierwsze objawy choroby wystąpiły 14 dni przed wykonaniem testu. Okazało się, że czułość testu (czyli jego zdolność do prawidłowego wykrywania obecności przeciwciał), wynosi ponad 99%. Co równie istotne, swoistość testu (czyli zdolność do wykrywania braku przeciwciał), była badana na 1070 próbkach i wyniosła również ponad 99%.
      Nowy test pozwoli stwierdzić, ile osób w rzeczywistości chorowało na COVID-19, a tym samym pozwoli określić tempo rozprzestrzeniania się epidemii i śmiertelność nowej choroby.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Chcielibyście wiedzieć, jaka kombinacja antybiotyków najlepiej zadziała na konkretnego pacjenta? I znaleźć ją w 12, a może nawet w 6 godzin, na miejscu? A może marzy się wam przeszukiwanie tysięcy próbek naraz w poszukiwaniu swoistych przeciwciał? To wszystko umożliwia nowy chip stworzony przez naukowców z IChF PAN. Jest tani, szybki i wiarygodny. Może zastąpić szybkie testy immunochromatograficzne i daje pacjentom większe szanse na pokonanie zakażenia.
      Nowe narzędzie diagnostyczne tworzy zespół pod kierunkiem prof. Piotra Garsteckiego. W pracy opublikowanej w Micromachines badacze wykazali, że połączenie kilku różnych, prostych metod pozwala stworzyć przyjazny użytkownikom zestaw do badania wrażliwości bakterii na antybiotyki. Nowy chip wykorzystuje mniej odczynników i antybiotyków niż standardowy antybiogram na agarowej pożywce, a jego użycie jest tak proste jak Etestu. Użytkownik może też wybrać sposób wizualizacji wyników, np. wykorzystując metaboliczne wskaźniki obecności bakterii, barwniki fluorescencyjne albo efekt kolorymetryczny.
      Chcieliśmy zbadać antybiotykowrażliwość najprościej, jak tylko się da, nie tylko dla pojedynczej substancji bakteriobójczej, ale także dla ich kombinacji albo w różnych warunkach - wyjaśnia dr Ladislav Derzsi, jeden z autorów pracy nadzorujący projekt. By stworzyć nasz chip, połączyliśmy kilka rzeczy odkrytych zupełnie niezależnie. Wykorzystaliśmy np. standardowe techniki fotolitografii i litografii tworzyw sztucznych, powszechnie używane do produkcji tzw. laboratoriów chipowych (LOC), i połączyliśmy je z techniką druku bezkontaktowego na specjalnie dla nas zaprojektowanej maszynie. Dzięki połączeniu tych metod naukowcy są w stanie precyzyjnie zakraplać mikroskopijne ilości dowolnej cieczy w mikrodołki chipu na podobnej zasadzie, jak działają drukarki atramentowe lub laserowe. W prezentowanym badaniu zakraplane były roztwory antybiotyków w różnym stężeniu i różnych kombinacjach. Drukarki mają maleńkie dysze i wykorzystując siły piezoelektryczne, potrafią precyzyjnie dostarczać w żądany punkt określoną objętość atramentu: nanolitry, pikolitry, ba, nawet femtolitry - mówi dr Derzsi. My robimy podobnie, tyle że zamiast atramentu dostarczamy antybiotyki i nie na papier, lecz do mikrodołków z plastycznego elastomeru. Rozpuszczalnik, czyli woda, odparowuje, a to, co zostaje, to mikroskopijna dawka antybiotyku. W opisywanym badaniu mikrodołki były stosunkowo duże, miały 1 mm średnicy i pojemność ok. 0,67 mikrolitra. Na każdym chipie umieściliśmy 1024 takie celki. To o rząd wielkości więcej niż na standardowych płytkach, które mają 96 dołków i to mimo że nasza konstrukcja jest o połowę mniejsza. Co więcej, zmniejszając indywidualne rozmiary każdej celki, liczbę mikrodołków można zwiększyć nawet do 10000 na standardowych rozmiarów chip - dodaje naukowiec.
      By ułatwić korzystanie z nowej metody, badacze owijają chipy taśmą polimerową, by odciąć dostęp powietrza, a następnie poddają je działaniu próżni. W ten sposób sprzęt jest dostarczany do końcowego użytkownika w postaci sterylnej, w podciśnieniu. W wersji komercyjnej zapewne dodatkowo pakowalibyśmy chipy próżniowo tak, jak to się robi z żywnością - wyjaśnia dr Derzsi. Użytkownik musi tylko odpakować płytkę, wprowadzić roztwór bakterii zwykłą, dostępną na rynku pipetą, a potem dodać niewielką ilość oleju, który rozdziela dołki i pomaga uniknąć ich krzyżowego skażenia. Później trzeba już tylko włożyć płytkę do cieplarki i... czekać na wynik. Po zadanym czasie można odczytać, jaka kombinacja antybiotyków i w jakich stężeniach działa najlepiej; innymi słowy, zobaczyć, gdzie bakterie rosną niechętnie lub wcale.
      Wielką zaletą nowego systemu diagnostycznego jest jego elastyczność. Można wytwarzać sterylne zestawy pod dyktando odbiorcy, z różnymi antybiotykami w różnych kombinacjach. My badaliśmy na jednej płytce 6 pojedynczych antybiotyków w ośmiu różnych stężeniach i –  dla zwiększenia precyzji – w ośmiu powtórzeniach. Testowaliśmy też ich kombinacje, umieszczając w jednym mikrodołku po dwa z sześciu badanych antybiotyków i sprawdzając ich działanie w szeregu powtórzeń. Można zresztą badać połączenia wielu antybiotyków, inhibitorów i substancji pomocniczych, wstrzykując je do jednej celki w zadanych przez odbiorcę kombinacjach - mówi dr Derzsi - ale zwykle lekarze nie podają pacjentowi więcej niż dwóch, by nie przeciążać jego organizmu. Dzięki naszej metodzie mogą pobrać od chorego próbkę i sprawdzić, który antybiotyk lub jakie ich połączenie zadziała optymalnie w tym konkretnym przypadku, czyli zidywidualizować leczenie, zamiast polegać na statystycznych uogólnieniach. A przecież każdy z nas reaguje na terapię nieco inaczej, nawet jeśli chorobę wywołały te same mikroby. Chodzi o mikroflorę, indywidualną zmienność metabolizmu i wiele innych czynników. Można zatem powiedzieć, że opracowana w IChF PAN metoda to krok przybliżający nas w stronę medycyny spersonalizowanej. Z drugiej strony, to wielka pomoc nie tylko dla klinicystów, ale i dla badaczy próbujących znaleźć nowe, nieoczywiste połączenia antybiotykowe, które działałyby lepiej od tych powszechnie znanych.
      Choć praca zespołu prof. Garsteckiego skupiała się na antybiotykowrażliwości bakterii, sama metoda ma potencjał, by po wprowadzeniu pewnych zmian można ją było wykorzystywać także np. do identyfikacji swoistych genów albo przeciwciał. Zwłaszcza że byłoby to ekonomiczne. Pojedyncza płytka nie powinna kosztować więcej niż 5 euro. Metody mikrofluidyczne mają jeszcze jedną zaletę: poszukując nowych leków, naukowcy często mają do dyspozycji bardzo ograniczoną liczbę potencjalnie leczniczych substancji. Dzięki drukowi bezkontaktowemu mogą przetestować więcej różnych stężeń i kombinacji takich leków in spe, zanim zabraknie im substratu.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy opracowali czuły i swoisty test z krwi, który pomaga wykryć ponad 50 typów nowotworów. Wyniki badań ukazały się w piśmie Annals of Oncology.
      Test opracowany przez firmę GRAIL wykorzystuje całogenomowe sekwencjonowanie bisulfitowe (ang. whole genome shotgun bisulfite sequencing, WGSBS) do określenia wzorca metylacji. W komórkach nowotworowych jest on często wyraźnie inny niż w prawidłowych komórkach. Gdy komórki nowotworowe obumierają, ich DNA z grupami metylowymi dostaje się do krwiobiegu. To właśnie pozakomórkowe DNA (ang. cell-free DNA, cfDNA) z osocza jest analizowane przez nowy test.
      Nasze wcześniejsze badania wykazały, że testy oparte na metylacji dają przy wykrywaniu licznych form nowotworów w próbkach krwi lepsze wyniki niż tradycyjne metody sekwencjonowania DNA. Wyniki nowego studium demonstrują, że takie testy są wykonalną metodą skryningu ludzi pod kątem szerokiej gamy nowotworów - przekonuje dr Geoffrey Oxnard z Dana-Farber Cancer Institute.
      Podczas studium naukowcy pracujący pod przewodnictwem specjalistów z Dana-Farber i Mayo Clinic wykorzystali test do analizy pozakomórkowego DNA z 6689 próbek krwi (2482 pochodziły od osób z nowotworem, a 4207 od osób bez nowotworu). Próbki od pacjentów z nowotworem reprezentowały ponad 50 typów nowotworów, w tym raka piersi, trzustki, jajnika czy jelita grubego, a także białaczkę limfocytową i szpiczaka mnogiego.
      W ramach swoich badań naukowcy stworzyli też maszynowy model diagnozujący. Trenowano go na zestawie 4720 próbek, a sprawdzono na osobnym zestawie 1969 próbek. Maszyna uzyskała stałą wysoką swoistość sięgającą 99%. Czułość rozpoznania była uzależniona od tego, czy model miał do rozważenia wszystkie możliwe nowotwory, czy też jedynie określony ich zestaw. W tym drugim przypadku trafność diagnozy była zdecydowanie wyższa.
      Ogólna swoistość testu wynosiła 99,3%. Czułość dla stopni zaawansowania I-III dwunastu wybranych rodzajów nowotworów, odpowiadających za ~63% nowotworowych zgonów w USA rocznie - raka odbytu, raka pęcherza moczowego, raka jelita grubego, raka przełyku, nowotworów głowy i szyi, nowotworów wątroby i przewodów żółciowych, raka płuca, chłoniaka, raka jajnika, raka trzustki, raka żołądka i nowotworów komórek plazmatycznych - wynosiła 67,3%. O ile w grupie tych 12 nowotworów czułość dla stopnia I wynosiła 39%, o tyle dla stopni II, III i IV wynosiła, odpowiednio, 69%, 83% i 92%. Widać więc wzrost czułości wraz ze wzrostem stopnia zaawansowania nowotworu.
      Tkanka pochodzenia (ang. tissue of origin, TOO) była przewidywana w 96% próbek z sygnałem nowotworowym; wśród nich lokalizację TOO trafnie określono w 93%.
      Nasze wyniki pokazują, że opisywane podejście - testowanie cfDNA z krwi - pozwala wykryć szeroką gamę typów nowotworów we wszelkich stopniach zaawansowania, z czułością i swoistością zbliżającą się do poziomu koniecznego do skryningu na poziomie populacyjnym - podsumowuje Oxnard.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Gavin Thomas, który w Microsofcie sprawuje funkcję Principal Security Engineering Manager, zasugerował, że ze względów bezpieczeństwa czas porzucić języki C i C++. Thomas argumentuje na blogu Microsoftu, że rezygnacja ze starszych języków na rzecz języków bardziej nowoczesnych pozwoli na wyeliminowanie całej klasy błędów bezpieczeństwa.
      Od 2004 roku każdy błąd naprawiony w oprogramowaniu Microsoftu jest przez nas przypisywany do jednej z kategorii. Matt Miller podczas konferencji Blue Hat w 2019 roku zauważył, że większość tych dziur powstaje wskutek działań programistów, którzy przypadkowo wprowadzają do kodu C i C++ błędy związane z zarządzeniem pamięcią. Problem narasta w miarę jak Microsoft tworzy coraz więcej kodu i coraz silniej zwraca się w stronę oprogramowania Open Source. A Microsoft nie jest jedyną firmą, która ma problemy z błędami związanymi  z zarządzaniem pamięcią, pisze Thomas.
      W dalszej części swojego wpisu menedżer wymienia liczne zalety C++, ale zauważa, że język ten ma już swoje lata i pod względem bezpieczeństwa czy metod odstaje od nowszych języków. Zamiast wydawać kolejne zalecenia i tworzyć narzędzia do walki z błędami, powinniśmy skupić się przede wszystkim na tym, by programiści nie wprowadzali błędów do kodu, czytamy.
      Dlatego też Thomas proponuje porzucenie C++. Jednym z najbardziej obiecujących nowych języków programistycznych zapewniających bezpieczeństwo jest Rust, opracowany oryginalnie przez Mozillę. Jeśli przemysł programistyczny chce dbać o bezpieczeństwo, powinien skupić się na rozwijaniu narzędzi dla developerów, a nie zajmować się tymi wszystkimi pobocznymi sprawami, ideologią czy przestarzałymi metodami i sposobami rozwiązywania problemów.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...