Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Poprawili rozdzielczość 100 milionów razy

Rekomendowane odpowiedzi

Naukowcy z IBM-a i Center for Probing the Nanoscale na Uniwersytecie Stanforda wykorzystali zmodyfikowany rezonans magnetyczny (MRI) do wykonania zdjęcia o rozdzielczości 100 milionów razy większej, niż można uzyskać za pomocą standardowego MRI. Osiągnięcie uczonych umożliwi obserwacje trójwymiarowych struktur w nanoskali. Udoskonalenie opracowanej właśnie techniki pozwoli np. na obserwowanie, w jaki sposób poszczególne białka wchodzą ze sobą w interakcje. Ta technologia zrewolucjonizuje nasze spojrzenie na wirusy, bakterie, białka i inne elementy biologiczne - mówi Mark Dean z IBM-a.

Uczeni wykorzystali technikę zwaną mikroskopią sił rezonansu magnetycznego (MRFM). Jej zalety to, przede wszystkim, możliwość zajrzenia pod powierzchnię badanych obiektów oraz całkowita nieszkodliwość dla badanego materiału biologicznego.

Wykorzystanie MRFM pozwoliło na obserwację struktur wewnątrz wirusa mozaiki tytoniu. Sam wirus ma wielkość 18 nanometrów, a naukowcy mogli oglądać obiekty wielkości 4 nm.

MRI to potężne narzędzie, ale jego przydatność w roli mikroskopu zawsze była ograniczona. Mamy nadzieję, że nano MRI umożliwi nam oglądanie wewnętrznych struktur molekuł białek, co jest kluczowe dla zrozumienia funkcji biologicznych - mówi Dan Rugar, szef zespołu badawczego.

Naukowcy umieścili wirusa mozaiki tytoniu na miniaturowej krzemowej dźwigience, a w pobliżu umiejscowiono niewielką magnetyczną igłę. Po włączeniu pola magnetycznego, atomy wodoru w wirusie na przemian odpychały i przyciągały igłę, powodując drgania dźwigni, na której wirus został umieszczony. Drgania te odczytywano za pomocą lasera, jednocześnie skanując igłę. Dane z wibracji dźwigni i oddziaływania atomów wodoru na igłę zostały przeanalizowane i posłużyły do utworzenia trójwymiarowego obrazu o niespotykanej dotąd rozdzielczości.

Oczywiście istnieją inne techniki tworzenia podobnych obrazów, jednak mają one poważne ograniczenia. Obrazowanie za pomocą promieni X wymaga wcześniejszego skrystalizowania próbki, co nie zawsze jest możliwe, a rezonans jądrowy nie nadaje się do obserwacji dużych molekuł. Z kolei technika krio-elektronowa prowadzi do zniszczenia materiału i dla osiągnięcia dobrej rozdzielczości wymaga wykonania wielu zdjęć.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mikroskop sił atomowych działa na podobnej zasadzie, ale tam nie wywołuje się zmian pola, a jedynie odczytuje to pole, które "już tam jest" w stanie wyjściowym. Taka hybryda brzmi niesamowicie :) Chociaż zastanawia mnie, czy metody obliczeniowe nie staną się dominującą techniką na tym polu. Może się to stać nawet wcześniej, niż dojdzie do upowszechnienia MRFM.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Internet pełen jest zdjęć jedzenia. Widzimy je i w mediach społecznościowych, i na witrynach WWW, i na reklamach. Wiele z nich prezentowanych jest po to, by wywołać w nas chęć zjedzenia konkretnej rzeczy czy dania. Widok żywności ma spowodować, że staniemy się głodni. Jednak badania przeprowadzone przez naukowców z Aarhus University pokazują, że prezentacja zdjęć z jedzeniem może mieć na nas przeciwny wpływ. Szczególnie, jeśli wielokrotnie widzimy tę samą potrawę.
      Duńscy uczeni dowodzą, że gdy widzimy to samo zdjęcie pożywienia ponad 30 razy, czujemy się bardziej najedzeni, niż zanim zobaczyliśmy fotografię po raz pierwszy. Ponadto uczestnicy badań, którym wielokrotnie pokazywaliśmy to samo zdjęcie i pytaliśmy ich, jak dużo danego produktu by zjedli, już po trzeciej prezentacji wybierali mniejsze porcje, mówi doktor Tjark Andersen.
      Może się wydawać dziwne, że uczestnicy badań czuli się najedzeni, podczas gdy niczego nie zjedli. Ale to naturalnej zjawisko. To, co myślimy o jedzeniu ma bowiem wpływ na apetyt. Apetyt jest ściślej powiązany z doświadczeniem poznawczym, niż się większości z nas wydaje. Bardzo ważny jest sposób, w jaki myślimy o jedzeniu. Eksperymenty pokazały na przykład, że jeśli ludziom powie się, że są różne kolory żelków i pozwoli im się jeść do woli żelki czerwone, to nadal będą chcieli zjeść żelka żółtego, mimo że żółte smakują tak samo jak czerwone, wyjaśnia Andersen. Z kolei z innych badań wynika, że jeśli wyobrażamy sobie, jak nasze zęby zagłębiają się w soczyste jabłko, dochodzi do aktywacji tych samych obszarów mózgu, co podczas jedzenia. Mamy tutaj do czynienia z reakcją fizjologiczną na samą myśl o czymś. To dlatego możemy poczuć się najedzeni bez jedzenia, dodaje uczony.
      Naukowcy z Aarhus nie są pierwszymi, którzy zauważyli, że same obrazy jedzenia zwiększają uczucie sytości. To wiedzieli już wcześniej. Chcieli się jednak dowiedzieć, jak wiele ekspozycji na obraz potrzeba, byśmy czuli się najedzeni oraz czy różne zdjęcia tego samego pożywienia zniosą uczucie sytości.
      Z wcześniejszych badań wiemy, że zdjęcia różnych rodzajów żywności nie mają tego samego wpływu na uczucie sytości. Dlatego gdy najemy się obiadem, mamy jeszcze miejsce na deser. Słodycze to zupełnie inny rodzaj żywności, mówią naukowcy.
      Duńczycy przygotowali więc serię online'owych eksperymentów, w których wzięło udział ponad 1000 osób. Najpierw pokazywano im zdjęcie pomarańczowych M&M'sów. Niektórzy widzieli je 3 razy, inni 30 razy. Okazało się, że ta grupa, która widziała zdjęcie więcej razy, czuła się bardziej najedzona. Uczestników zapytano też, ile (od 1 do 10) draży by zjedli. Po obejrzeniu 30 zdjęć uczestnicy wybierali mniejszą liczbę.
      Później eksperyment powtórzono, ale z drażami o różnych kolorach. Nie wpłynęło to na wyniki badań. Jednak później zdjęcia M&M'sów zastąpiono zdjęciami draży Skittles, w przypadku których różne kolory smakują różnie. Okazało się jednak, że znowu nie było różnicy. To sugeruje, że wpływ na zmianę naszego poczucia sytości ma więcej parametrów niż kolor i smak, dodaje Andersen.
      Naukowcy nie wykluczają, że ich spostrzeżenia można będzie wykorzystać w walce z nadwagą i spożywaniem śmieciowego jedzenia. Wyobraźmy sobie aplikację, korzystającą z wyszukiwarki obrazów. Gdy masz ochotę na pizzę, wpisujesz to w aplikację, a ona prezentuje Ci zdjęcia pizzy. Ty sobie wyobrażasz, jak ją jesz i czujesz się nasycony. Ochota na pizzę ci przechodzi, wyjaśnia uczony.
      Zdjęcia jedzenia zalewające internet mogą być jedną z przyczyn, dla której wiele osób ulega chwilowym pokusom i sięga po niezdrową wysoko przetworzoną żywność. Jednak, jak wynika z powyższych eksperymentów, te same zdjęcia i ten sam internet mogą pomóc w pozbyciu się niezdrowych nawyków i nieuleganiu pokusom.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dyrektor wykonawczy IBM-a Arvind Krishna poinformował, że jego firma przestanie rekrutować ludzi na stanowiska, na których w najbliższych latach mogą być oni zastąpieni przez sztuczną inteligencję. W wywiadzie dla Bloomberga menedżer stwierdził, że rekrutacja na stanowiska biurowe, na przykład w dziale HR, może zostać znacznie spowolniona lub całkowicie wstrzymana. Obecnie na tego typu stanowiskach – gdzie nie ma kontaktu z klientem – IBM zatrudnia 26 000 osób.
      Zdaniem Krishny, w ciągu najbliższych 5 lat sztuczna inteligencja może zastąpić 30% z nich. To oznacza, że w samym tylko IBM-ie maszyny zastąpią 7800 osób. Stąd też pomysł na spowolnienie lub wstrzymanie rekrutacji, dzięki czemu uniknie się zwalniania ludzi.
      Krishna mówi, że takie zadania, jak pisanie listów referencyjnych czy przesuwanie pracowników pomiędzy poszczególnymi wydziałami, prawdopodobnie zostaną całkowicie zautomatyzowane. Inne zaś, takie jak analizy produktywności czy struktury zatrudnienia, ludzie będą wykonywali jeszcze przez kolejną dekadę.
      Błękitny Gigant zatrudnia obecnie około 260 000 osób i wciąż zwiększa zatrudnienie. Potrzebuje pracowników przede wszystkim do rozwoju oprogramowania oraz osób pracujących z klientem. Na początku bieżącego roku firma ogłosiła, że planuje zwolnienia, które w sumie obejmą 5000 osób, ale jednocześnie w I kwartale zatrudniła 7000 osób.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wirusolodzy od dawna wiedzą o niezwykłym zjawisku dotyczącym wirusów atakujących drogi oddechowe. Dla patogenów tych naturalnym środowiskiem są ciepłe i wilgotne drogi oddechowe. Ich względna wilgotność wynosi zwykle 100%. Wystawienie na bardziej suche powietrze poza organizmem powinno szybko niszczyć wirusy. Jednak wykres czasu ich przeżywalności w powietrzu układa się w literę U.
      Przy wysokiej wilgotności wirus może przetrwać dość długo, gdy wilgotność spada, czas ten ulega skróceniu, ale w pewnym momencie trend się odwraca i wraz ze spadającą wilgotnością powietrza czas przetrwania wirusów... zaczyna się wydłużać.
      Naukowcy od dawna zastanawiali się, dlaczego przeżywalność wirusów zaczyna rosnąć, gdy względna wilgotność powietrza zmniejszy się do 50–80 procent. Odpowiedzią mogą być przejścia fazowe w ośrodku, w którym znajdują się wirusy. Ray Davis i jego koledzy z Trinity University w Teksanie zauważyli, że w bogatych w białka aerozole i krople – a wirusy składają się z białek – w pewnym momencie wraz ze spadkiem wilgotności zachodzą zmiany strukturalne.
      Jedna z dotychczasowych hipotez wyjaśniających kształt wykresu przeżywalności wirusów w powietrzu o zmiennej wilgotności przypisywała ten fenomen zjawisku, w wyniku którego związki nieorganiczne znajdujące się w kropli, w której są wirusy, w miarę odparowywania wody migrują na zewnątrz kropli, krystalizują i tworzą w ten sposób powłokę ochronną wokół wirusów.
      Davis i jego zespół badali aerozole i kropelki złożone z soli i białek, modelowych składników dróg oddechowych. Były one umieszczone na specjalnym podłożu wykorzystywanym do badania możliwości przeżycia patogenów.
      Okazało się, że poniżej 53-procentowej wilgotności krople badanych płynów tworzyły złożone wydłużone kształty. Pod mikroskopem było zaś widać, że doszło do rozdzielenia frakcji płynnej i stałej. Zdaniem naukowców, to dowód na przemianę fazową, podczas której jony wapnia łączą się z proteinami, tworząc żel. Zauważono jednak pewną subtelną różnicę. O ile w aerozolach do przemiany takiej dochodzi w ciągu sekund, dzięki czemu wirusy mogą przeżyć, to w większych kroplach proces ten zachodzi wolnej i zanim dojdzie do chroniącego wirusy przejścia fazowego, patogeny mogą zginąć.
      Naukowcy sądzą, że kluczowym elementem dla zdolności przeżycia wirusów, które wydostały się z dróg oddechowych, jest skład organiczny kropli i aerozoli. Ten zaś może zależeć od choroby i stopnia jej zaawansowania. Następnym etapem prac nad tym zagadnieniem powinno być systematyczne sprawdzenie składu różnych kropli oraz wirusów w nich obecnych, co pozwoli zrozumieć, jak działa proces dezaktywacji wirusów w powietrzu, mówi Davis.
      Zdaniem eksperta od aerozoli, Petera Raynora z University of Minnesota, badania takie można będzie w praktyce wykorzystać np. zapewniając odpowiedni poziom wilgotności powietrza w budynkach w zimie, nie tylko dla komfortu ludzi, ale również po to, by stworzyć najmniej korzystne warunki dla przetrwania wirusów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na University of Oxford powstaje oprogramowanie, które na podstawie wyglądu twarrzy ma rozpoznawać rzadkie choroby genetyczne. Choroby takie dotykają około 6% populacji, ale w większości przypadków pozostają nierozpoznane. Istnieją testy genetyczne pozwalające zdiagnozować częściej występujące schorzenia, takie jak np. zespół Downa. Jednak dla wielu chorób testy nie zostały opracowane, gdyż nie zidentyfikowano genów, które je powodują.
      W przypadku 30-40 procent osób cierpiących na schorzenia genetyczne pewne charakterystyczne cechy są widoczne na twarzach. I właśnie na tej podstawie lekarz może postawić diagnozę. Problem w tym, że niewielu medyków ma odpowiednie przygotowanie pozwalające na rozpoznanie chorób genetycznych na podstawie wyglądu twarzy. Z tego też powodu wiele osób nie ma przez całe lata postawionej prawidłowej diagnozy.
      Dlatego też Christoffer Nellaker i Andrew Zisserman z Oxfordu postanowili stworzyć oprogramowanie, które na podstawie zdjęcia będzie pomagało we wstępnej diagnostyce.
      Obaj naukowcy wykorzystali w swojej pracy 1363 publicznie dostępne zdjęcia osób cierpiących na osiem schorzeń genetycznych. Znalazły się wśród nich fotografie chorych na zespół Downa, zespół łamliwego chromosomu X czy progerię. Komputer uczył się identyfikować każdą z chorób na podstawie zestawu 36 cech twarzy, takich jak kształt oczu, ust, nosa czy brwi. „Automatycznie analizuje zdjęcie i skupia się na głównych cechach, z których tworzy opis twarzy podkreślając cechy odróżniające” - mówi Nellaker. Później opis taki jest przez komputer porównywany ze zdjęciami osób ze zdiagnozowanymi schorzeniami. Na tej podstawie maszyna wydaje swoją opinię i określa prawdopodobieństwo, z jaki dana osoba może cierpieć na któreś ze schorzeń.
      Skuteczność algorytmu zwiększa się wraz z wielkością bazy danych fotografii referencyjnych. W przypadku ośmiu schorzeń genetycznych, którymi obecnie się zajęto, baza danych dla każdej z nich wynosiła od 100 do 283 zdjęć osób ze zdiagnozowanymi chorobami. Testy wykazały, że maszyna rozpoznaje choroby z 93-procentową trafnością.
      Tak obiecujące wyniki skłoniły naukowców do rozszerzenia zestawu diagnozowanych chorób do 91. W bazie danych znajdują się obecnie 2754 zdjęcia osób, u których rozpoznano jedną z tych chorób. Na razie system nie podaje dokładnej diagnozy, jednak naukowcy szacują, że już w tej chwili ich algorytm potrafi właściwie rozpoznać chorobę z 30-krotnie większym prawdopodobieństwem niż przy losowym zgadywaniu. Na przykład na podstawie zdjęcia Abrahama Lincolna system uznał, że cierpiał on na zespół Marfana. Niektórzy historycy twierdzą, że prezydent rzeczywiście na to chorował. Zespół Marfana jest siódmą najczęściej występujących schorzeniem spośród 91, którymi zajmuje się algorytm.
      Nellaker przyznaje, że algorytm nie podaje 100-procentowo pewnych odpowiedzi, ale pozwala na znaczne zawężenie możliwości wyboru. Teoretycznie może być on używany do diagnozowania noworodków, jednak jego twórcy uważają, że będzie używany głównie do diagnozowania rodziców, którzy martwią się, iż mogliby swoim dzieciom przekazać jakieś schorzenia. Główną zaletą systemu będzie jego łatwa dostępność. Szczególnie przyda się on tam, gdzie testy genetyczne są niedostępne.
      Ma on też olbrzymią przewagę nad stworzonymi wcześniej systemami korzystającymi z obrazów 3D. Tworzenie takich obrazów jest trudne i kosztowne, a pacjent musi odwiedzić szpital, w którym obraz zostanie wykonany. System Nellakera i Zissermana potrzebuje jedynie cyfrowego zdjęcia twarzy.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Prace międzynarodowej grupy badawczej, na czele której stali specjaliści ze Skołkowskiego Instytutu Nauki i Technologii (Skoltech) w Moskwie oraz IBM-a zaowocowały powstaniem energooszczędnego superszybkiego przełącznika optycznego. Urządzenie nie wymaga chłodzenia, a jednocześnie jest ponad 100-krotnie szybsze od najszybszych współczesnych tranzystorów.
      Tym, co czyni to urządzenie tak bardzo energooszczędnym jest fakt, że do przełączenia stanu potrzebuje zaledwie kilku fotonów, mówi główny autor badań Anton Zasiedatieliew. W laboratorium udało się nam go przełączać za pomocą pojedynczego fotonu. I to w temperaturze pokojowej. Jednak minie sporo czasu, zanim taka technologia będzie mogła trafić do procesorów optycznych, dodaje profesor Pawlos Lagudakis.
      Możliwość przełączania za pomocą pojedynczego fotonu oznacza, że układ jest niezwykle energooszczędny i zostało niewiele miejsca na jego dalsze udoskonalenie. Oczywiście musimy przy tym pamiętać, że obecnie działa to jedynie w wyspecjalizowanym laboratorium. Jednak tak właśnie zaczyna się wielu historia technologii, które w końcu trafiają do codziennego użytku. Większość współczesnych tranzystorów elektrycznych potrzebuje dziesiątki razy więcej energii, by się przełączyć, a te, którym wystarczy pojedynczy elektron, działają znacznie wolniej niż zademonstrowany właśnie przełącznik optyczny.
      Jednak szybkość i energooszczędność to nie jedyne zalety nowej technologii. Równie ważny jest fakt, że przełącznik działa w temperaturze pokojowej i nie wymaga chłodzenia. Tymczasem systemy chłodzenia potrzebne współczesnym komputerom nie tylko wpływają na koszty samego sprzętu, ale też znacząco zwiększają zużycie energii koniecznej do ich zasilania.
      Urządzenie składa się z dwóch laserów. Bardzo słaby promień lasera kontrolnego jest używany do przełączania stanu drugiego jaśniejszego z laserów. Do przełączenia wystarczy kilka fotonów, stąd wynika wysoka efektywność całości. Przełączanie odbywa się wewnątrz mikrownęki. To 35-nanometrowej grubości organiczny polimer półprzewodzący zamknięty pomiędzy dwiema nieorganicznymi warstwami o wysokim współczynniku odbicia. Mikrownęka zbudowana jest w taki sposób, by jak najdłużej więzić nadchodzące światło, prowadząc w ten sposób do jego sprzężenia z materiałem wnęki.
      Oddziaływanie światła z materią to podstawa działania nowego urządzenia. Gdy fotony sprzęgają się z parami dziura-elektron – tworzącymi kwazicząstkę o nazwie ekscyton – pojawiają się kwazicząstki ekscyton-polaryton. Gdy silniejszy z laserów oświetla przełącznik powstają tysiące identycznych krótko żyjących kwazicząstek tworzących kondensat Bosego-Einsteina, w którym kodowany jest stan urządzenia „0” lub „1”.
      Najpierw za pomocą silniejszego lasera we wnęce tworzone są kwazicząstki o energiach większych niż energia podstawowa. Przełącznik znajduje się w stanie „0” Do przełączenia potrzebny jest laser słabszy, za pomocą którego tworzona jest grupa kwazicząstek o energii podstawowej. Ich pojawienie się wywołuje lawinowy proces przełączania się pozostałych kwazicząstek do stanu podstawowego. W ten sposób uzyskujemy stan „1”. Czas przełączania liczony jest w femtosekundach, dzięki czemu przełącznik jest ponad 100-krotnie szybszy od współczesnych tranzystorów.
      Naukowcy użyli kilku sztuczek, by utrzymać zapotrzebowanie na energię na jak najniższym poziomie przy jednoczesnym zmaksymalizowaniu pracy urządzenia. W efektywnym przełączaniu pomagają wibracje molekuł półprzewodzącego polimeru. Konieczne było precyzyjne dopasowanie częstotliwości pracy laserów, stanu kondensatu i energii wibracji molekuł polimeru.
      Przed nami jeszcze sporo pracy. Musimy zmniejszyć całkowite zapotrzebowania urządzenia na energię. Obecnie jest ono zdominowane przez silniejszy z laserów, który utrzymuje przełącznik w gotowości. Prawdopodobnie trzeba będzie wykorzystać tutaj perowskitowego superkryształu, z którym wcześniej eksperymentowaliśmy. Są one doskonałymi kandydatami to zbudowania naszego przełącznika, gdyż zapewniają bardzo silną interakcję światła z materią, stwierdzają autorzy badań.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...