Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Padła ostateczna granica mikroskopii krioelektronowej. Można obrazować atomy w proteinach

Recommended Posts

To prawdziwy przełom. Nie ma już więcej rekordów do pobicia. Padła ostatnia bariera rozdzielczości, mówi Holger Stark z Instytutu Fizyki Biochemicznej im. Maxa Plancka w Göttingen. Stał on na czele jednej z dwóch grup badawczych, które poinformowały o pierwszym w historii zobrazowaniu poszczególnych atomów w proteinie za pomocą mikroskopii krioelektronowej (cryo-EM).

Osiągnięcie to pokazuje, jak wielkie możliwością stoją przed mikroskopią krioelektronową i umacniają jej pozycję jako narzędzia do mapowania trójwymiarowych kształtów protein. Takie narzędzia pozwalają na dokładne zbadanie struktur białek, a co za tym idzie, lepsze zrozumienie ich funkcjonowania, co z kolei przełoży się na stworzenie lepszych leków o mniejszej liczbie skutków ubocznych.

Drugą grupą badawczą, które udało się zobrazować atomy w proteinach jest zespół pracujący pod kierunkiem Sjorsa Scheresa i Radu Aricescu z Medical Reasearch Council Laboratory of Molecular Biology (MRC-LMB) w Cambridge w Wielkiej Brytanii.
Prace Niemców i Brytyjczyków chwali John Rubinstein, biolog z University of Toronto. Rozdzielczość atomowa to prawdziwy przełom, mówi i dodaje, że pozostało jeszcze kilka problemów do rozwiązania, jak np. obrazowanie protein o małej elastyczności. Prace te pokazują, dokąd możemy dojść, jeśli rozwiążemy te problemy, stwierdza.

Mikroskopia krioelektronowa do licząca sobie dziesiątki lat technika, w której obrazuje się kształt zamrożonych próbek ostrzeliwując je elektronami i rejestrując ich odbicia. Około roku 2013 rozpoczęła się prawdziwa rewolucja. Dzięki coraz doskonalszym technikom wykrywania odbitych elektronów oraz coraz lepszemu oprogramowaniu do analizy, zaczęto uzyskiwać coraz lepszej jakości obraz.

Z czasem obraz uzyskany z cryo-EM niemal dorównywał jakości obrazowi uzyskiwanemu z rentgenografii strukturalnej. Niemal, więc naukowcy nadal musieli polegać na rentgenografii. Technika ta pozwala na badanie skrystalizowanych protein. Wykonanie analizy wymaga najpierw uzyskania możliwie jak najbardziej regularnego i doskonałego monokryształu badanego związku. Uzyskanie takich kryształów jest czasochłonne. Może trwać wiele miesięcy, a nawet lat. Ponadto wiele protein interesujących z punktu widzenia medycyny nie tworzy kryształów, które można by w ten sposób badać. Croy-EM ma tę zaletę, że wymaga jedynie umieszczenia proteiny w oczyszczonym roztworze.

Granicą, poza którą można mówić o rozdzielczości atomowej jest około 1,2 angstrema (1,2x10-10 metra). Oba zespoły naukowe, niemiecki i brytyjski, pracowały z apoferrytyną. To niezwykle stabilna proteina, za pomocą której testuje się cryo-EM. Poprzedni rekord obrazowania tej proteiny wynosił 1,54 angstrema.

Oba zespoły wykorzystały nieco inne techniki, osiągając podobne rezultaty. Niemcy uzyskali rozdzielczość 1,25 A, Brytyjczycy zaś 1,2 A. Stark ocenia, że połączenie obu technik może pozwolić na zwiększenie rozdzielczości do około 1 angstrema, ale to praktycznie nieprzekraczalna granica dla mikroskopii krioelektronowej. Obszar poniżej 1 angstroma jest niemal nieosiągalny dla cro-EM. Uzyskanie takiej rozdzielczości za pomocą najnowocześniejszych dostępnych obecnie urządzeń wymagałoby setek lat rejestracji danych, niewyobrażalnie wielkich mocy obliczeniowych i możliwości przechowywania danych, mówi Stark.

Scheres i Aricescu przetestowali też swoją technikę na receptorze GABAA. Jeszcze w ubiegłym roku udało im się obrazować ją w rozdzielczości 2,5 angstrema. Tym razem osiągnęli 1,7 A, chociaż w niektórych fragmentach obraz był jeszcze dokładniejszy. To było jak usunięcie przesłony z oczu. Przy tych rozdzielczościach każde pół angstroma otwiera zupełnie nowy wszechświat.


« powrót do artykułu

Share this post


Link to post
Share on other sites
18 godzin temu, KopalniaWiedzy.pl napisał:

Technika ta pozwala na badanie skrystalizowanych protein.

Zawsze zastanawiało mnie założenie że struktura białka po krystalizacji nie zmienia się istotnie w stosunku do białka w wodzie, jest masa przesłanek mówiących że musi być inaczej.
 

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Proteina p53 zapobiega podziałom komórek ze zmutowanym lub uszkodzonym DNA, chroniąc nas w ten sposób przed rozwojem guzów nowotworowych. Problem jednak w tym, że p53 bardzo szybko rozpada się w komórkach. Naukowcy ze szwedzkiego Karolinska Institutet odkryli sposób na ustabilizowanie p53 poprzez dodanie do niej proteiny z nici pajęczej.
      Nieprawidłowe białka to poważny problem w biologii strukturalnej. Znaczącym przykładem jest tutaj supresor nowotworowy p53, którego niewielka ekspresja i niska stabilność stanowią przeszkodę w rozwoju leków przeciwnowotworowych, czytamy w artykule A “spindle and thread” mechanism unblocks p53 translation by modulating N-terminal disorder opublikowanym na łamach pisma Structure.
      Komórki wytwarzają niewiele p53, a proteina bardzo szybko się w nich rozpada. Zainspirowało nas to, jak natura tworzy stabilne proteiny i wykorzystaliśmy proteiny z pajęczej sieci do ustabilizowania p53. Nić pajęcza zawiera długie łańcuchy wysoko stabilnych protein i jest jednym z najbardziej wytrzymałych naturalnych polimerów, stwierdził jeden z autorów badań, Michael Landreh.
      W ramach swoich eksperymentów uczeni dodali do p53 niewielki fragment proteiny z pajęczej sieci. Gdy tylko go wprowadzili, zauważyli, że komórki zaczęły wytwarzać duże ilości p53. Za pomocą mikroskopii elektronowej, spektrometrii mas i symulacji komputerowych naukowcy wykazali, że pajęcza proteina ustabilizowała p53.
      Stworzenie w komórce bardziej stabilnej odmiany p53 to obiecująca metoda walki z nowotworami. Widzimy, że warto podążać tą drogą. Mamy nadzieję, że w przyszłości uda się opracować bazującą na mRNA szczepionkę antynowotworową, ale zanim to zrobimy, musimy dowiedzieć się, jak proteina zachowuje się w komórce i czy jej duże ilości nie będą toksyczne, mówi współautor badań profesor David Lane. Uczony jest jednym z odkrywców proteiny p53.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dzięki kombinacji laserów i wyjątkowej pułapki, w którą schwytano niezwykle zimne atomy, naukowcom z Lawrence Berkeley National Laboratory i University of California Berkeley udało się zmierzyć najmniejszą znaną nam siłę. Wynosi ona... 42 joktoniutony. Joktoniuton to jedna kwadrylionowa (10-24) niutona.
      Przyłożyliśmy zewnętrzną siłę do centrum masy superzimnej chmury atomów i optycznie zmierzyliśmy jej ruch. […] czułość naszego pomiaru jest zgodna z teoretycznymi przewidywaniami i jest jedynie czterokrotnie mniejsza od limitu kwantowego, który wyznacza granicę najbardziej dokładnego pomiaru - mówi fizyk Dan Stamper-Kurn.
      Prowadzenie tak dokładnych pomiarów jest niezbędne, jeśli chcemy potwierdzić istnienie fal grawitacyjnych. Dlatego też wiele zespołów naukowych stara się udoskonalać metody pomiarowe. Na przykład naukowcy w Laser Interferometer Gravitational-Wave Observatory próbują zmierzyć przesunięcie zaledwie o 1/1000 średnicy protonu.
      Kluczem do sukcesu wszelkich superdokładnych pomiarów jest wykorzystanie mechanicznych oscylatorów, które przekładają zewnętrzną siłę, której oddziaływaniu został poddany obiekt, na jego ruch. Gdy jednak pomiary siły i ruchu staną się tak dokładne, że dotrzemy do limitu kwantowego, ich dalsze wykonywanie nie będzie możliwe, gdyż sam pomiar – zgodnie z zasadą nieoznaczoności Heisenberga – będzie zakłócany ruchem oscylatora. Naukowcy od dziesiątków lat próbują przybliżyć się do tego limitu kwantowego. Dotychczas jednak najlepsze pomiary były od niego gorsze o 6-8 rzędów wielkości. Zmierzyliśmy siłę z dokładnością najbliższą limitowi kwantowemu. Było to możliwe, gdyż nasz mechaniczny oscylator składa się z zaledwie 1200 atomów - stwierdził Sydney Schreppler. Oscylatorem wykorzystanym przez Schrepplera, Stampera-Kurna i innych były atomy rubidu schłodzone niemal do zera absolutnego. Pułapkę stanowiły dwa promienie lasera o długości fali wynoszącej 860 i 840 nanometrów. Stanowiły one równe i przeciwstawne siły osiowe oddziałujące na atomy. Ruch centrum masy został wywołany w gazie poprzez modulowanie amplitudy drgań promienia światła o długości fali 840 nanometrów.
      Gdy do oscylatora przyłożyliśmy siłę zewnętrzną, było to tak, jakbyśmy uderzyli batem w wahadło i zbadali jego reakcję - mówi Schreppler.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Współczesne komputery kwantowe to bardzo skomplikowane urządzenia, które trudno jest budować, skalować, a do pracy wymagają niezwykle niskich temperatur. Dlatego naukowcy od dłuższego czasu interesują się optycznymi komputerami kwantowymi. Fotony łatwo przenoszą informację, a fotoniczny komputer kwantowy mógłby pracować w temperaturze pokojowej. Problem jednak w tym, że o ile wiadomo, jak budować pojedyncze kwantowe bramki logiczne dla fotonów, to olbrzymim wyzwaniem jest stworzenie dużej liczby bramek i połączenie ich tak, by możliwe było przeprowadzanie złożonych obliczeń.
      Jednak optyczny komputer kwantowy może mieć prostszą architekturę, przekonują na łamach Optics naukowcy z Uniwersytetu Stanforda. Proponują oni wykorzystanie lasera do manipulowania pojedynczym atomem, który z kolei – za pomocą zjawiska teleportacji kwantowej – zmieni stan fotonu. Atom taki może być resetowany i wykorzystywany w wielu bramkach kwantowych, dzięki czemu nie ma potrzeby budowania różnych fizycznych bramek, co z kolei znakomicie uprości architekturę komputera kwantowego.
      Jeśli chciałbyś zbudować komputer kwantowy tego typu, musiałbyś stworzyć tysiące kwantowych źródeł emisji, spowodować, by były nie do odróżnienia od siebie i zintegrować je w wielki obwód fotoniczny. Tymczasem nasza architektura zakłada wykorzystanie niewielkiej liczby dość prostych podzespołów, a wielkość naszej maszyny nie rośnie wraz z wielkością programu kwantowego, który jest na niej uruchamiany, wyjaśnia doktorant Ben Bartlett, główny autor artykułu opisującego prace fizyków ze Stanforda.
      Nowatorska architektura składa się z dwóch głównych elementów. Pierścień przechowujący dane to po prostu pętla ze światłowodu, w której krążą fotony. Pełni on rolę układu pamięci, a każdy foton reprezentuje kubit. Badacze mogą manipulować fotonem kierując go z pierścienia do jednostki rozpraszania. Składa się ona z wnęki optycznej, w której znajduje się pojedynczy atom. Foton wchodzi w interakcję z atomem i dochodzi do ich splątania. Następnie foton wraca do pierścienia, a laser zmienia stan atomu. Jako, że jest on splątany z fotonem, zmiana stanu atomu skutkuje też zmianą stanu fotonu. Poprzez pomiar stanu atomu możesz badać stan fotonu. W ten sposób potrzebujemy tylko 1 atomowego kubitu, za pomocą którego manipulujemy wszystkimi fotonicznymi kubitami, dodaje Bartlett.
      Jako że każda kwantowa bramka logiczna może zostać skompilowana w szereg operacji przeprowadzonych na atomie, teoretycznie można by w ten sposób uruchomić dowolny program kwantowy dysponując jednym atomowym kubitem. Działanie takiego programu polegałoby na całym ciągu operacji, w wyniku których fotony wchodziłyby w interakcje z atomowym kubitem.
      W wielu fotonicznych komputerach kwantowych bramki są fizycznymi urządzeniami, przez które przechodzą fotony, zatem jeśli chcesz zmienić sposób działania swojego programu zwykle musisz zmienić konfigurację sprzętową komputera. W przypadku naszej architektury nie musisz zmieniać sprzętu. Wystarczy, że wyślesz do maszyny inny zestaw instrukcji, stwierdza Bartlett.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Proteina XRN1 odgrywa kluczową rolę w regulowaniu apetytu i metabolizmu przez mózg, informują badacze z Okinawa Institute of Science and Technology Graduate University. U myszy utrata tego białka z przodomózgowia doprowadziła do pojawienia się niepohamowanego apetytu i otyłości, czytamy na łamach iScience. Otyłość powodowana jest przez nierównowagę pomiędzy ilością przyjmowanego pokarmu a wydatkowaniem energii. Wciąż jednak słabo rozumiemy, jak apetyt i metabolizm są regulowane przez komunikację pomiędzy mózgiem a innymi częściami ciała, jak trzustka czy tkanka tłuszczowa, mówi doktor Akiko Yanagiya.
      W ramach badań naukowcy stworzyli mysz, w której przodomózgowiu nie pojawiła się proteina XRN1. W tym regionie mózgu znajduje się m.in. podwzgórze, niewielki obszar odpowiedzialny za uwalnianie hormonów regulujących sen, temperaturę ciała, pragnienie i głód. Naukowcy zauważyli, że w wieku 6 tygodni ich myszy zaczęły gwałtownie przybierać na wadze i w wieku 12 tygodni były już otyłe. Obserwując zachowanie zwierząt uczeni stwierdzili, że myszy pozbawione XRN1 jadły niemal dwukrotnie więcej niż grupa kontrolna.
      To była prawdziwa niespodzianka. Gdy po raz pierwszy pozbawiliśmy mózg XRN1 nie wiedzieliśmy, co odkryjemy. Tak drastyczny wzrost apetytu był czymś niespodziewanym, informuje doktor Shohei Takaoka.
      Japończycy chcieli dowiedzieć się, co powoduje, że myszy tak dużo jedzą. Zmierzyli więc poziom leptyny we krwi. To hormon, który tłumi uczucie głodu. W porównaniu z grupą kontrolną był on znacząco podwyższony. Normalnie powinno to zniwelować uczucie głodu i powstrzymać myszy przed jedzeniem. Jednak zwierzęta pozbawione XRN1 nie reagowały na leptynę.
      Naukowcy odkryli też, że 5-tygodniowe myszy były oporne na insulinę, co w konsekwencji może prowadzić do cukrzycy. W miarę upływu czasu u myszy tych poziom glukozy i insuliny znacząco rósł wraz ze wzrostem leptyny. Sądzimy, że poziom glukozy oraz insuliny zwiększał się z powodu braku reakcji na leptynę. Oporność na leptynę powodowała, że myszy ciągle jadły, glukoza we krwi utrzymywała się na wysokim poziomie, a przez to wzrastała też ilość insuliny, mówi Yanagiya.
      Sprawdzano też, czy otyłość u myszy mogła być spowodowana mniejszą aktywnością fizyczną. Zwierzęta umieszczono w specjalnych klatkach, gdzie mierzono poziom zużywanego tlenu, co służyło jaki wskaźnik tempa metabolizmu. Okazało się, że u 6-tygodniowych myszy nie było żadnej różnicy w wydatkowaniu energii pomiędzy grupą badaną (bez XRN1) a grupą kontrolną. jednak uczeni zauważyli coś bardzo zaskakującego. Otóż myszy bez XRN1 używały węglowodanów jako głównego źródła energii. Natomiast myszy z grupy kontrolnej były w stanie przełączać się pomiędzy wykorzystywaniem węglowodanów w nocy – kiedy to były bardziej aktywne – a wykorzystywaniem zgromadzonego w ciele tłuszczu w dzień, w czasie mniejszej aktywności.
      Z jakiegoś powodu myszy pozbawione XRN1 nie wykorzystywały tłuszczu tak efektywnie, jak grupa kontrolna. Nie wiemy, dlaczego tak się dzieje, przyznaje doktor Yanagiya. Gdy zaś myszy te osiągnęły 12 tygodni życia, ich wydatki energetyczne zmniejszyły się w porównaniu z grupą kontrolną. Jednak naukowcy sądzą, że było to spowodowane otyłością, a nie na odwrót. Myślimy, że przyczyną otyłości było tutaj przejadanie się w wyniku oporności na leptynę, dodaje uczony.
      XRN1 odgrywa kluczową rolę w aktywności genów, gdyż jest zaangażowana na ostatnim etapie degradacji mRNA. Naukowcy odkryli, że u otyłych myszy poziom mRNA wykorzystywanego do wytwarzania proteiny AgRP, jednego z najsilniejszych stymulatorów apetytu, był podwyższony, co prowadziło też do podwyższonego poziomu AgRP. W tej chwili to tylko spekulacja, ale sądzimy, że zwiększony poziom tej proteiny i nieprawidłowa aktywacja wytwarzających ją neuronów może być przyczyną oporności na leptynę u myszy. W normalnych warunkach leptyna zmniejsza aktywność neuronów AgRP, ale jeśli utrata XRN1 powoduje, że neurony pozostają wysoce aktywne, to może to zagłuszać sygnały przekazywane przez leptynę, wyjaśniają naukowcy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Trójce naukowców z Francji i Niemiec udało się aż 38-krotnie zmniejszyć limit dyfrakcyjny. Osiągnęli to pozwalając falom dowolnie odbijać się i rozpraszać w zamkniętej przestrzeni. Dzięki temu udało się określić położenie niewielkiego sześcianu z dokładnością 1/76 długości fali promieniowania mikrofalowego wykorzystanego podczas eksperymentów.
      Limit dyfrakcyjny ogranicza dokładność obrazowania czy lokalizacji obiektu i jest związany z dyfrakcją, czyli ugięciem fal wokół materiału. Limit ten, najmniejsza wyczuwalna różnica dla danej długości fali, wynosi 1/2 tej długości. Oznacza to, że w sposób konwencjonalny nie jesteśmy w stanie odróżnić od siebie np. dwóch przedmiotów, jeśli różnią się elementem, którego wielkość jest mniejsza niż 1/2 długości fali za pomocą obiekty te obrazujemy. Stworzono więc różne metody na pokonanie limitu dyfrakcyjnego. Często jednak ich zastosowanie jest trudne bądź niepraktyczne.
      Michael del Hougne z Uniwersytetu w Wurzburgu, Sylvain Gigan z Laboratoire Kastler Brossel oraz Philipp del Hougne z Uniwersytetu w Rennes wykorzystali doświadczenia z techniką tzw. kodowanej apertury. W technice tej wykorzystuje się powierzchnię rozpraszającą, taką jak np. wnękę o nieregularnym kształcie umieszczoną pomiędzy oświetlanym obiektem a wykrywaczem. Powierzchnia jest modyfikowana za pomocą maski, która blokuje pewne fale, uniemożliwiając im dotarcie do wykrywacza. Za pomocą wielu pomiarów uzyskiwany jest matematyczny model obserwowanego obiektu.
      Badacze wykorzystali tę koncepcję do opracowania techniki jeszcze lepiej oddającej szczegóły poniżej długości fali. Umieścili badany obiekt, wykrywacz i źródło światła wewnątrz wnęki, od której powierzchni odbijały się fale. Metoda ta wykorzystuje fakt, że fale wielokrotnie napotkają na badany obiekt, zanim dotrą do wykrywacza. Wewnątrz wnęki znajdują się też programowalne metapowierzchnie, zmieniające strukturę, na której rozpraszają się fale.
      Uczeni testowali swoją technikę umieszczając metalowy sześcian o boku 4,5 cm wewnątrz wnęki o szerokości 1 metra. Do badania obiektu wykorzystali mikrofale o długości 12 cm oraz wykrywacz, z którego sygnały były przetwarzane przez sieć neuronową. Gdy przesunęli sześcian w inne miejsce, byli w stanie określić jego pozycję z dokładnością do 0,16 cm. To ok. 1/76 długości fali użytej do badania, zatem znacznie poniżej limitu dyfrakcyjnego. Dokładność pomiaru zwiększała się, gdy fale mogły odbijać się dłużej.
      Technika wymaga jeszcze dopracowania, ale jej twórcy uważają, że przyda się ona do nieinwazyjnego lokalizowania niewielkich obiektów w dużych pomieszczeniach za pomocą fal radiowych lub dźwiękowych.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...