Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Poprawili rozdzielczość 100 milionów razy

Recommended Posts

Naukowcy z IBM-a i Center for Probing the Nanoscale na Uniwersytecie Stanforda wykorzystali zmodyfikowany rezonans magnetyczny (MRI) do wykonania zdjęcia o rozdzielczości 100 milionów razy większej, niż można uzyskać za pomocą standardowego MRI. Osiągnięcie uczonych umożliwi obserwacje trójwymiarowych struktur w nanoskali. Udoskonalenie opracowanej właśnie techniki pozwoli np. na obserwowanie, w jaki sposób poszczególne białka wchodzą ze sobą w interakcje. Ta technologia zrewolucjonizuje nasze spojrzenie na wirusy, bakterie, białka i inne elementy biologiczne - mówi Mark Dean z IBM-a.

Uczeni wykorzystali technikę zwaną mikroskopią sił rezonansu magnetycznego (MRFM). Jej zalety to, przede wszystkim, możliwość zajrzenia pod powierzchnię badanych obiektów oraz całkowita nieszkodliwość dla badanego materiału biologicznego.

Wykorzystanie MRFM pozwoliło na obserwację struktur wewnątrz wirusa mozaiki tytoniu. Sam wirus ma wielkość 18 nanometrów, a naukowcy mogli oglądać obiekty wielkości 4 nm.

MRI to potężne narzędzie, ale jego przydatność w roli mikroskopu zawsze była ograniczona. Mamy nadzieję, że nano MRI umożliwi nam oglądanie wewnętrznych struktur molekuł białek, co jest kluczowe dla zrozumienia funkcji biologicznych - mówi Dan Rugar, szef zespołu badawczego.

Naukowcy umieścili wirusa mozaiki tytoniu na miniaturowej krzemowej dźwigience, a w pobliżu umiejscowiono niewielką magnetyczną igłę. Po włączeniu pola magnetycznego, atomy wodoru w wirusie na przemian odpychały i przyciągały igłę, powodując drgania dźwigni, na której wirus został umieszczony. Drgania te odczytywano za pomocą lasera, jednocześnie skanując igłę. Dane z wibracji dźwigni i oddziaływania atomów wodoru na igłę zostały przeanalizowane i posłużyły do utworzenia trójwymiarowego obrazu o niespotykanej dotąd rozdzielczości.

Oczywiście istnieją inne techniki tworzenia podobnych obrazów, jednak mają one poważne ograniczenia. Obrazowanie za pomocą promieni X wymaga wcześniejszego skrystalizowania próbki, co nie zawsze jest możliwe, a rezonans jądrowy nie nadaje się do obserwacji dużych molekuł. Z kolei technika krio-elektronowa prowadzi do zniszczenia materiału i dla osiągnięcia dobrej rozdzielczości wymaga wykonania wielu zdjęć.

Share this post


Link to post
Share on other sites

Mikroskop sił atomowych działa na podobnej zasadzie, ale tam nie wywołuje się zmian pola, a jedynie odczytuje to pole, które "już tam jest" w stanie wyjściowym. Taka hybryda brzmi niesamowicie :) Chociaż zastanawia mnie, czy metody obliczeniowe nie staną się dominującą techniką na tym polu. Może się to stać nawet wcześniej, niż dojdzie do upowszechnienia MRFM.

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Po dostaniu się do płynów ustrojowych gospodarza wirusy zostają powleczone białkami. Stają się przez to bardziej zakaźne. Takie wirusy mogą również przyspieszać tworzenie włókien amyloidowych, które odgrywają ważną rolę w chorobie Alzheimera (ChA).
      Wyobraźmy sobie piłkę tenisową, która wpada do miski mleka z płatkami. Natychmiast powlekają ją lepkie cząstki, które pozostają nawet po wyjęciu piłki z naczynia. To samo dzieje się, gdy wirus wchodzi w kontakt z bogatą w białka krwią lub płynem układu oddechowego. Wiele z tych białek błyskawicznie przywiera do powierzchni wirusa, tworząc tzw. koronę białkową - wyjaśnia Kariem Ezzat z Uniwersytetu Sztokholmskiego i Karolinska Institutet.
      Zespół Ezzata badał koronę białkową wirusa RSV (ang. Respiratory Syncytial Virus) w różnych płynach ustrojowych. Sygnatura korony białkowej RSV we krwi jest bardzo różna od korony tworzącej się w płynach układu oddechowego. Różni się też u poszczególnych osób [...].
      Na poziomie genetycznym wirus pozostaje taki sam. Tożsamości nabywa, akumulując różne korony białkowe w różnych środowiskach. [...] Wykazaliśmy, że sporo tych koron sprawia, że RSV jest bardziej zakaźny.
      Szwedzi wykazali także, że RSV i wirus opryszczki pospolitej HHV-1 wiążą się z białkami amyloidowymi. Ezzat i inni zademonstrowali, że HSV-1 może przyspieszać przekształcanie rozpuszczalnej formy we włókna amyloidowe, które tworzą złogi.
      Badania na myszach będących modelem ChA pokazały, że choroba rozwinęła się w zaledwie 2 doby od zakażenia (obserwowano nasilenie akumulacji Aβ42 zarówno w hipokampie, jak i w korze). Pod nieobecność infekcji HSV-1 proces ten zajmuje zwykle kilka miesięcy.
      Opisane przez nas mechanizmy mogą mieć wpływ nie tylko na zrozumienie czynników określających zakaźność wirusów, ale i na opracowanie nowych metod projektowania szczepionek. Zdobyte dowody powinny też zwiększyć zainteresowanie rolą wirusów w chorobach neurodegeneracyjnych, np. ChA.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Izraelscy specjaliści zwracają uwagę na słabe zabezpieczenia sprzętu medycznego i sieci. Stworzony przez nich wirus tak manipulował obrazami wykonanymi za pomocą tomografii komputerowej i rezonansu magnetycznego, że pojawiały się na nich fałszywe guzy nowotworowe. Złośliwe oprogramowanie było też zdolne do usuwania z obrazów rzeczywiście istniejących guzów i nieprawidłowości. W obu przypadkach tego typu atak może mieć poważne konsekwencje dla pacjenta.
      Yisroel Mirsky, Yuval Elovici i dwóch innych specjalistów z Centrum Badań nad Bezpieczeństwem Cyfrowym na Uniwersytecie Ben-Guriona mówią, że np. taki atak można np. przeprowadzić na polityka, by skłonić go do wycofania się z wyborów.
      Izraelczycy dowiedli, że to, co mówią, to nie tylko teoria. Podczas testów wykorzystali swoje oprogramowanie do zmanipulowania zdjęć płuc wykonanych za pomocą tomografu. Zdjęcia dano do przeanalizowania trzem doświadczonym radiologom. Okazało się, że diagnoza niemal zawsze była nieprawidłowa. Tam, gdzie złośliwe oprogramowanie dodało fałszywe guzy nowotworowe, radiolodzy w 99% przypadków zdiagnozowali chorobę. Tam, gdzie prawdziwe guzy nowotworowe zostały usunięte przez wirusa, radiolodzy w 94% przypadków orzekli, że pacjent jest zdrowy. Nawet wówczas, gdy radiologom powiedziano, że będą mieli do czynienia ze zmanipulowanymi obrazami i dano im do przeanalizowali kolejny zestaw zdjęć, to w przypadku tych fotografii, na których wirus dodał fałszywego guza radiolodzy w 60% zdiagnozowali chorobę, a tam, gdzie złośliwy kod guza usunął, radiolodzy w 87% przypadków stwierdzili, że pacjent jest zdrowy. Jeszcze gorzej niż ludzie poradziło sobie oprogramowanie, które jest często wykorzystywane przez radiologów do potwierdzenia diagnozy. Ono w 100% dało się oszukać fałszywym guzom.
      Byłam zaszokowana, przyznaje Nancy Boniel, radiolog z Kanady, która brała udział w badaniach. Poczułam się tak, jakby ktoś usunął mi grunt spod stóp. Zostałam bez narzędzia diagnostycznego.
      Mirsky, Elovici i inni przeprowadzili eksperymenty ze zdjęciami płuc, jednak są pewni, że ich atak będzie też działał w przypadku guzów mózgu, chorób serca, zatorów żylnych, uszkodzeń rdzenia kręgowego, złamań kości, uszkodzeń więzadeł oraz artretyzmu.
      Złośliwe oprogramowanie może losowo dodawać fałszywe guzy do wszystkich obrazów, powodując w szpitalu chaos oraz spadek zaufania personelu do sprzętu medycznego, może też wyszukiwać konkretnych pacjentów po ich nazwisku czy numerze identyfikacyjnym i dodawać fałszywe informacje tylko do ich diagnoz. To zaś oznacza, że osoba poważne chora może nie otrzymać pomocy, a osoby zdrowe zostaną poddane niepotrzebnym, ryzykownym i szkodliwym zabiegom leczniczym. Co więcej, program może też śledzić kolejne badania konkretnego pacjenta i dodawać do nich guzy, fałszywie informując o rozprzestrzenianiu się choroby, lub też pokazywać, że guzy się zmniejszają, sugerując, iż leczenie działa. Jest ono też zdolne do manipulowania wynikami badań klinicznych, przekazując fałszywe dane na temat testowanych leków czy technik leczniczych.
      Mirsky mówi, że atak jest możliwy do przeprowadzenia, gdyż szpitale nie podpisują cyfrowo skanów. Obrazy wykonane przez tomograf i rezonans są przesyłane do stacji roboczych oraz baz danych. Gdyby obrazy cyfrowo podpisywano, a transmisję szyfrowano, niezauważona zmiana obrazu byłaby niemożliwa. Jako, że nie jest to robione, osoba z dostępem do sieci szpitala może zainfekować ją szkodliwym kodem.
      Szpitale przywiązują bardzo dużą uwagę do prywatności. Ale tylko tam, gdzie dane są dzielone z innymi szpitalami czy jednostkami zewnętrznymi. Tutaj istnieją bardzo ścisłe przepisy dotyczące ochrony danych osobowych i medycznych. Jednak to, co dzieje się wewnątrz szpitala to inna historia, stwierdza Mirsky. To, jak się okazuje, problem nie tylko Izraela. Fotios Chantzis, główny inżynier odpowiedzialny za bezpieczeństwo w amerykańskiej Mayo Clinic potwierdza, że sytuacja taka jest możliwa i że wewnętrzne sieci szpitali zwykle nie są zabezpieczone. Wiele szpitali uważa bowiem, że ich sieci są niedostępne z zewnątrz. Nawet tam, gdzie sieci wewnętrzne umożliwiają szyfrowanie, to nie jest ono używane np. ze względów na obawy o kompatybilność ze starszym, wciąż wykorzystywanym, oprogramowaniem.
      Podczas przygotowywania swojego szkodliwego kodu naukowcy z Uniwersytetu Ben Guriona wykorzystali techniki maszynowego uczenia się, za pomocą których wytrenowali wirusa tak, by szybko przedostawał się do obrazów przesyłanych przez sieć szpitalną oraz by dopasowywał umieszczane przez siebie na zdjęciu fałszywe informacje do anatomii pacjenta. Dzięki temu fałszywe guzy wyglądały bardziej realistycznie. Wirus może działać w trybie całkowicie automatycznym, zatem wystarczy wpuścić go do sieci, a wykona swoją pracę bez nadzoru i oczekiwania na polecenia od napastnika.
      Infekcji można dokonać albo mając dostęp do szpitalnych urządzeń i podłączając się do nich za pomocą kabla lub też wykorzystując internet. Izraelczycy odkryli bowiem, że wiele sieci szpitalnych jest albo wprost podłączonych do internetu, albo też w szpitalu istnieje urządzenie, które ma dostęp jednocześnie i do internetu i do sieci wewnętrznej szpitala.
      Izraelczycy przeprowadzili nawet atak na szpital w swoim kraju. Mirsky dostał się, po godzinach pracy, na oddział radiologii i podłączył urządzenie ze złośliwym kodem do wewnętrznej sieci. Cała operacja zajęła mu zaledwie 30 sekund. Nikt go nie niepokoił, nie pytał, co tam robi. Dyrekcja szpitala wydała pozwolenie na przeprowadzenie testu, ale personel nie był o niczym poinformowany.
      Mirsky mówi, że najlepszym sposobem na uniknięcie tego typu ataków byłoby szyfrowanie komunikacji wewnątrzszpitalnej i cyfrowe podpisywanie wszystkich danych, komputery powinny być tak skonfigurowane, by wszczynać alarm, gdy tylko których z obrazów nie jest odpowiednio podpisany. Jednak, jak zauważają specjaliści, nie jest to takie proste. Wielu szpitali nie stać na takie rozwiązania lub też używają starych, często 20-letnich, technologii, które nie wspierają szyfrowania i cyfrowych podpisów. To zmiany, które wychodzą daleko poza same urządzenia i dotyczą całej infrastruktury sieci, zauważa Suzanne Schwartz z amerykańskiej FDA.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Badacze IBM-a postawili sobie ambitny cel. Chcą co roku dwukrotnie zwiększać wydajność komputerów kwantowych tak, by w końcu były one szybsze lub bardziej wydajne niż komputery klasyczne. Podczas tegorocznych targów CES IBM pokazał przełomowe urządzenie: IBM Q System One, pierwszy komputer kwantowy, który ma być gotowy do komercyjnego użytku.
      Celem IBM-a jest coś, co nazywają „Quantum Advantage” (Kwantowa przewaga). Zgodnie z tym założeniem komputery kwantowe mają zyskać „znaczną” przewagę nad komputerami klasycznymi. Przez „znaczną” rozumie się tutaj system, który albo będzie setki lub tysiące razy szybszy od komputerów kwantowych, albo będzie wykorzystywał niewielki ułamek pamięci potrzebny maszynom kwantowym lub też będzie w stanie wykonać zadania, jakich klasyczne komputery wykonać nie są.
      Wydajność komputera kwantowego można opisać albo za pomocą tego, jak sprawują się poszczególne kubity (kwantowe bity), albo też jako ogólną wydajność całego systemu.
      IBM poinformował, że Q System One może pochwalić się jednym z najniższych odsetków błędów, jakie kiedykolwiek zmierzono. Średni odsetek błędów na dwukubitowej bramce logicznej wynosi mniej niż 2%, a najlepszy zmierzony wynik to mniej niż 1%. Ponadto system ten jest bliski fizycznemu limitowi czasów koherencji, który w w przypadku Q System One wyniósł średnio 73 ms.To oznacza, że błędy wprowadzane przez działanie urządzenia są dość małe i zbliżamy się do osiągnięcia minimalnego możliwego odsetka błędów, oświadczyli badacze IBM-a.
      Błękitny Gigant stworzył też Quantum Volume, system pomiaru wydajności komputera kwantowego jako całości. Bierze on pod uwagę zarówno błędy na bramkach, błędyh pomiarów czy wydajność kompilatora. Jeśli chcemy osiągnąć Quantum Advantage w latach 20. XXI wieku, to każdego roku wartość Quantum Volume musi się co najmniej podwajać, stwierdzili badacze. Na razie udaje im się osiągnąć cel. Wydajność pięciokubitowego systemu Tenerife z 2017 roku wynosiła 4. W 2018 roku 20-kubitowy system IBM Q osiągnął w teście Quantum Volume wynik 8. Najnowszy zaś Q System One nieco przekroczył 16.
      Sądzimy, że obecnie przyszłość komputerów to przyszłość komputerów kwantowych, mówią specjaliści z IBM-a.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      IBM poinformował o podpisaniu porozumienia, w ramach którego Błękitny Gigant przejmie znanego producenta jednej z dystrybucji Linuksa, firmę Red Hat. Transakcja będzie warta 34 miliardy dolarów. Jeśli do niej dojdzie będzie to trzecia największa w historii akwizycja na rynku IT.
      Umowa przewiduje, że IBM wykupi akcje Red Hata, płacąc za każdą z nich 190 dolarów. Na zamknięciu ostatniej sesji giełdowej przed ogłoszeniem transakcji akcje Red Hata kosztowały 116,68 USD.
      Przejęcie Red Hata zmieni zasady gry. Całkowicie zmieni rynek chmur obliczeniowych, mówi szef IBM-a Ginni Rometty. "IBM stanie się największym na świecie dostawcą dla hybrydowych chmur i zaoferuje przedsiębiorcom jedyną otwartą architekturę chmur, dzięki której klient będzie mógł uzyskać z niej maksimum korzyści", dodał. Zdaniem menedżera obenie większość firm wstrzymuje się z rozwojem własnych chmur ze względu na zamknięte architektury takich rozwiązań.
      Jeszcze przed kilku laty IBM zajmował się głównie produkcją sprzętu komputerowego. W ostatnim czasie firma zdecydowanie weszła na takie rynki jak analityczny czy bezpieczeństwa. Teraz ma zamiar konkurować z Microsoftem, Amazonem czy Google'em na rynku chmur obliczeniowych.
      Po przejęciu Red Hat będzie niezależną jednostką zarządzaną przez obecnego szefa Jima Whitehursta i obecny zespół menedżerów. To ważny dzień dla świata open source. Doszło do największej transakcji w historii rynku oprogramowania i bierze w tym udział firma zajmująca się otwartym oprogramowaniem. Tworzymy historię, dodał Paul Cormier, wiceprezes Red Hata.
      Obecnie Red Hat ma siedziby w 35 krajach, zatrudnia około 12 000 osób je jest jednym z największych oraz najbardziej znanych graczy na rynku open source. W roku 2018 zysk firmy wyniósł 259 milionów dolarów czy przychodach rzędu 2,9 miliarda USD. Dla porównania, w 2017 roku przychody IBM-a zamknęły się kwotą 79 miliardów dolarów, a zysk to 5,8 miliarda USD.
      Na przejęcie muszą się jeszcze zgodzić akcjonariusze Red Hata oraz odpowiednie urzędy antymonopolowe.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      IBM pokaże dzisiaj prototypowy optyczny układ scalony „Holey Optochip“. To pierwszy równoległy optyczny nadajnik-odbiornik pracujący z prędkością terabita na sekundę. Urządzenie działa zatem ośmiokrotnie szybciej niż inne tego typu kości. Układ pozwala na tak szybki transfer danych, że mógłby obsłużyć jednocześnie 100 000 typowych użytkowników internetu. Za jego pomocą można by w ciągu około godziny przesłać zawartość Biblioteki Kongresu USA, największej biblioteki świata.
      Holey Optochip powstał dzięki wywierceniu 48 otworów w standardowym układzie CMOS. Dało to dostęp do 24 optycznych nadajników i 24 optycznych odbiorników. Przy tworzeniu kości zwrócono też uwagę na pobór mocy. Jest on jednym z najbardziej energooszczędnych układów pod względem ilości energii potrzebnej do przesłania jednego bita informacji. Holey Optochip potrzebuje do pracy zaledwie 5 watów.
      Cały układ mierzy zaledwie 5,2x5,8 mm. Odbiornikami sygnału są fotodiody, a nadajnikami standardowe lasery półprzewodnikowe VCSEL pracujące emitujące światło o długości fali 850 nm.
×
×
  • Create New...