Zaloguj się, aby obserwować tę zawartość
Obserwujący
0
Białkowa roleta chroni przed światłem
dodany przez
KopalniaWiedzy.pl, w Nauki przyrodnicze
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Analiza ponad 50 000 gwiazd wykazała, że rozbłyski słoneczne mogą być setki razy potężniejsze, niż najsilniejszy rozbłysk kiedykolwiek zanotowany przez astronomów. Na łamach pisma Science badacze z Instytutu Badań Układu Słonecznego im Maxa Plancka poinformowali, że po przebadaniu 56 540 gwiazd doszli do wniosku, że każda z nich średnio co 100 lat doświadcza gigantycznego rozbłysku. Wyniki badań wskazują, że dotychczas potencjał gwiazd był niedoszacowany. Z danych zebranych przez Teleskop Keplera wynika bowiem, że gigantyczne rozbłyski mają miejsce 10-100 razy częściej niż sądzono.
Już wcześniejszych badań wiadomo było, że na Słońcu może dochodzić do potężnych erupcji. Ich ślady znajdowano w prehistorycznych drzewach i lodzie z lodowców. Jednak na podstawie takich źródeł nie można było stwierdzić, jak często tego typu wydarzenia mają miejsce. Bezpośrednie pomiary ilości promieniowania docierającego ze Słońca na Ziemię potrafimy wykonywać dopiero od kilkudziesięciu lat.
Istnieje jednak inny sposób na zdobycie danych na temat długoterminowego zachowania się Słońca. Współczesne teleskopy kosmiczne obserwują tysiące gwiazd i zbierają dane o zmianach ich jasności. W danych tych widać też potężne rozbłyski. Nie możemy obserwować Słońca przez tysiące lat. Możemy jednak badać zachowanie tysięcy gwiazd bardzo podobnych do Słońca w krótkim okresie czasu. To pozwala nam ocenić, jak często dochodzi do superrozbłysków, mówi współautor badań, profesor Sami Solanki.
Naukowcy z Niemiec, Austrii, USA, Japonii, Finlandii i Francji przeanalizowali dane z 56 450 gwiazd dostarczone w latach 2009–2013 przez Teleskop Kosmiczny Keplera. W sumie Kepler dostarczył nam danych z 220 tysięcy lat aktywności słonecznej, wyjaśnia profesor Alexander Shapiro z Uniwersytetu w Grazu.
Kluczowym elementem był dobór gwiazd jak najbardziej podobnych do naszej. Badacze wybrali więc te, których temperatura powierzchni i jasność były jak najbardziej zbliżone. W czasie badań zidentyfikowano 2889 superrozbłysków, które miały miejsce na 2527 gwiazdach spośród 56 450 wybranych. To oznacza, że każda z gwiazd generuje jeden superrozbłysk w ciągu stu lat. To było zaskakujące. Naukowcy nie spodziewali się, że potężne rozbłyski mają miejsce tak często. Dotychczas bowiem, na podstawie dowodów znalezionych na Ziemi, wydawało się, że dochodzi do nich znacznie rzadziej.
Gdy cząstki z potężnego rozbłysku trafią do ziemskiej atmosfery, dochodzi do wytwarzania mierzalnych ilości pierwiastków promieniotwórczych, takich jak węgiel-14. Pierwiastki te trafiają do naturalnych archiwów, jak pierścienie drzew czy lód w lodowcach. Więc informacje o takim wydarzeniu na Słońcu można odczytać tysiące lat później na Ziemi. W ten sposób naukowcom udało się zidentyfikować 5 ekstremalnych wydarzeń tego typu i 3 kandydatów na rozbłyski. Doszło do nich w ciągu ostatnich 12 tysięcy lat. Z tego też powodu sądzono, że Słońce generuje superrozbłyski raz na około 1500 lat. I o ile wiadomo, ostatnie takie wydarzenie miało miejsce w 775 roku.
Wyniki badań mogą niepokoić. O ile w roku 775 wynikiem skierowanego w stronę Ziemi rozbłysku mógł być niewielki wzrost zachorowań na nowotwory skóry, to współczesna cywilizacja techniczna bardzo boleśnie odczułaby skutki takiego wydarzenia.
Już przed kilkunastu laty amerykańskie Narodowe Akademie Nauk opublikowały raport dotyczący ewentualnych skutków olbrzymiego koronalnego wyrzutu masy, który zostałby skierowany w stronę Ziemi. Takie wydarzenie spowodowałoby poważne perturbacje w polu magnetycznym planety, co z kolei wywołałoby przepływ dodatkowej energii w sieciach energetycznych. Nie są one przygotowane na tak gwałtowne zmiany.
Omawiając ten raport, pisaliśmy, że mogłoby dojść do stopienia rdzeni w stacjach transformatorowych i pozbawienia prądu wszystkich odbiorców. Autorzy raportu stwierdzili, że gwałtowny koronalny wyrzut masy mógłby uszkodzić 300 kluczowych transformatorów w USA. W ciągu 90 sekund ponad 130 milionów osób zostałoby pozbawionych prądu. Mieszkańcy wieżowców natychmiast straciliby dostęp do wody pitnej. Reszta mogłaby z niej korzystać jeszcze przez około 12 godzin. Stanęłyby pociągi i metro. Z półek sklepowych błyskawiczne zniknęłaby żywność, gdyż ciężarówki mogłyby dostarczać zaopatrzenie dopóty, dopóki miałyby paliwo w zbiornikach. Pompy na stacjach benzynowych też działają na prąd. Po około 72 godzinach skończyłoby się paliwo w generatorach prądu. Wówczas stanęłyby szpitale.
Najbardziej jednak przerażającą informacją jest ta, iż taki stan mógłby trwać całymi miesiącami lub latami. Uszkodzonych transformatorów nie można naprawić, trzeba je wymienić. To zajmuje zespołowi specjalistów co najmniej tydzień. Z kolei duże zakłady energetyczne mają na podorędziu nie więcej niż 2 grupy odpowiednio przeszkolonych ekspertów. Nawet jeśli część transformatorów zostałaby dość szybko naprawiona, nie wiadomo, czy w sieciach byłby prąd. Większość rurociągów pracuje bowiem dzięki energii elektrycznej. Bez sprawnego transportu w ciągu kilku tygodni również i elektrowniom węglowym skończyłyby się zapasy. Sytuacji nie zmieniłyby też elektrownie atomowe. Są one zaprojektowane tak, by automatycznie wyłączały się w przypadku poważnych awarii sieci energetycznych. Ich uruchomienie nie jest możliwe przed usunięciem awarii.
O tym, że to nie tylko teoretyczne rozważania, świadczy chociażby fakt, że w marcu 1989 roku burza na Słońcu na 9 godzin pozbawiła prądu 6 milionów Kanadyjczyków. Z kolei najpotężniejszym tego typu zjawiskiem, jakie zachowało się w ludzkiej pamięci, było tzw. wydarzenie Carringtona z 1859 roku. Kilkanaście godzin po tym, jak astronom Richard Carrington zaobserwował dwa potężne rozbłyski na Słońcu, Ziemię zalało światło zórz polarnych. Przestały działać telegrafy, doszło do pożarów drewnianych budynków stacji telegraficznych, a w Ameryce Północnej, gdzie była noc, ludzie mogli bez przeszkód czytać gazety. Igły kompasów poruszały się w sposób niekontrolowany, a zorze polarne było widać nawet w Kolumbii. A pamiętać trzeba, że wydarzenie Carringtona było znacznie słabsze, niż superrozbłyski, o których tutaj mowa.
Obecnie ucierpiałyby nie tylko sieci elektromagnetyczne, ale również łączność internetowa. Na szczególne niebezpieczeństwo narażone byłyby kable podmorskie, a konkretnie zainstalowane w nich wzmacniacze oraz ich uziemienia. Więc nawet gdy już uda się przywrócić zasilanie, problemem będzie funkcjonowanie globalnego internetu, bo naprawić trzeba będzie dziesiątki tysięcy kilometrów kabli.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Problem grzania korony słonecznej pozostaje nierozwiązany od 80 lat. Z modeli obliczeniowych wynika, że temperatura we wnętrzu Słońca wynosi ponad 15 milionów stopni, jednak na jego widocznej powierzchni (fotosferze) spada do około 5500 stopni, by w koronie wzrosnąć do około 2 milionów stopni. I to właśnie ta olbrzymia różnica temperatur pomiędzy powierzchnią a koroną stanowi zagadkę. Jej rozwiązanie – przynajmniej częściowe – zaproponował międzynarodowy zespół naukowy z Polski, Chin, USA, Hiszpanii i Belgii. Zdaniem badaczy za podgrzanie części korony odpowiadają... chłodne obszary na powierzchni.
W danych z Goode Solar Telescope uczeni znaleźli intensywne fale energii pochodzące z dość chłodnych, ciemnych i silnie namagnetyzowanych regionów fotosfery. Takie ciemniejsze regiony mogą powstawać, gdy silne pole magnetyczne tłumi przewodzenie cieplne i zaburza transport energii z wnętrza naszej gwiazdy na jej powierzchnię. Naukowcy przyjrzeli się aktywności tych chłodnych miejsc, przede wszystkim zaś włóknom plazmy powstającym w umbrze, najciemniejszym miejscu plamy słonecznej. Włókna te to stożkowate struktury o wysokości 500–1000 kilometrów i szerokości około 100 km. Istnieją one przez 2-3 minuty i zwykle ponownie pojawiają się w tym samym najciemniejszym miejscu umbry, gdzie pola magnetyczne są najsilniejsze, wyjaśnia profesor Vasyl Yurchyshyn z New Jersey Institute of Technology (NJIT).
Te ciemne dynamiczne włóka obserwowane były od dawna, jednak jako pierwsi byliśmy w stanie wykryć ich oscylacje boczne, które są powodowane przez szybko poruszające się fale. Te ciągle obecne fale w silnie namagnetyzowanych włóknach transportują energię w górę i przyczyniają się do podgrzania górnych części atmosfery Słońca, dodaje Wenda Cao z NJIT. Z przeprowadzonych obliczeń wynika, że fale te przenoszą tysiące razy więcej energii niż ilość energii tracona w aktywnych regionach atmosfery. Rozprzestrzenianie się tej energii jest nawet o 4 rzędy wielkości większa niż ilość energii potrzebna do utrzymania temperatury korony słonecznej.
Wszędzie na Słońcu wykryto dotychczas różne rodzaje fal. Jednak zwykle niosą one ze sobą zbyt mało energii, by podgrzać koronę. Szybkie fale, które wykryliśmy w umbrze plam słonecznych to stałe i wydajne źródło energii, które może podgrzewać koronę nad plamami, wyjaśnia Yurchyszyn. Odkrycie to, jak mówią naukowcy, nie tylko zmienia nasz pogląd na umbrę plam, ale również jest ważnym krokiem w kierunku zrozumienia transportu energii i podgrzewania korony.
Jednak, jak sami zauważają, zagadka grzania korony słonecznej nie została rozwiązania. Przepływ energii pochodzącej z plam może odpowiadać tylko za podgrzanie pętli koronalnych, które biorą swoje początki z plam. Istnieją jednak inne, wolne od plam, regiony Słońca powiązane z gorącymi pętlami koronalnymi. I czekają one na swoje wyjaśnienie, dodaje Cao.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Metaanaliza 43 prac naukowych przeprowadzona na University of Bath wykazała, że roślinne alternatywy mięsa są zdrowsze zarówno dla człowieka, jak i dla planety. Autorzy skupili się na zdrowotnych i środowiskowych cechach takich produktów oraz postawach konsumentów wobec nich. Jako że roślinne alternatywy mięsa są robione tak, by naśladować teksturę, smak i doświadczenie związane ze spożywaniem mięsa, są bardziej efektywnym sposobem na zmniejszenie zapotrzebowania na mięso niż samo zachęcanie ludzi do diety wegetariańskiej.
Produkcja żywności to jeden z głównych czynników przyczyniających się do zmian klimatycznych oraz niszczenia ekosystemów. To źródło dużej emisji gazów cieplarnianych, zużycia słodkiej wody, prowadzi ona do wylesiania, utraty bioróżnorodności, zakłócenia cyklu obiegu fosforu i azotu w przyrodzie. Jednak te „winy” rolnictwa nie rozkładają się równomiernie. Hodowla zwierząt wymaga zużycia większej liczby zasobów na jednostkę masy pożywienia niż produkcja roślinna. Wynika to z faktu, że efektywność produkcji białka zwierzęcego jest niezwykle niska.
Zwierzęta hodowlane na całym świecie konsumują rocznie 4,6 Gt węgla pierwiastkowego, ale pozyskiwane z nich produkty mleczne i mięsne zawierają tylko 0,12 Gt węgla. To zaledwie 2,6% tego, co zjadły zwierzęta. Większość składników pokarmowych jest bowiem zużywana na procesy życiowe, a nie na wytwarzanie mięsa i mleka. Z tego też powodu produkcja mięsa jest bardzo nieefektywna. Średnio globalnie z 1 hektara pszenicy otrzymamy 250 kg białka, ale z 1 ha pastwiska tylko 10 kg białka z wołowiny. I mimo, że około 80% ziemi rolnej przeznaczone jest pod produkcję zwierzęca, to otrzymujemy z niej mniej niż 40% białka i 20% kalorii spożywanych przez ludzi. Dodatkowo produkcja zwierzęca wiąże się z olbrzymią emisją zanieczyszczeń i gazów cieplarnianych.
Ta nieefektywność powoduje, że w miarę jak zwiększa się liczba ludności i coraz więcej osób chce jeść coraz więcej mięsa, jego produkcja staje się coraz większym problemem dla środowiska. Nie wspominając o zdrowotnych skutkach spożywania nadmiernych ilości mięsa i tłuszczów zwierzęcych.
Coraz częściej słyszymy głosy namawiające nas do przechodzenia na dietę wegetariańską lub wegańską. Jednak takie namowy niewiele dają. Zdaniem naukowców z Bath lepszym rozwiązaniem jest skupienie się na roślinnych odpowiednikach mięsa. Zapewnienie dostępu do takich produktów i obniżenie ich ceny może być naprawdę skuteczne. Tym bardziej, że niewielkie zmiany mogą nieść ze sobą duże korzyści. Z jednego z analizowanych badań wynika, że jeśli w samych tylko Niemczech konsumenci zastąpią 5% białka z wołowiny białkiem z grochu, to roczna emisja CO2 zmniejszy się nawet o 8 milionów ton. Z kolei w innych badaniach znaleźli informację, że ilość gazów cieplarnianych emitowanych podczas produkcji burgera roślinnego jest o 98% niższa niż w przypadku burgera wołowego. Generalnie rzecz biorąc, produkcja żywności roślinnej znacznie mniej obciąża środowisko, niż żywności zwierzęcej.
Naukowcy przyjrzeli się też profilowi zdrowotnemu mięsa i produktów roślinnych, które mają je zastępować. Stwierdzili, że generalnie roślinne zamienniki mięsa są zdrowsze. Prace, w których badano ten aspekt za punkt wyjścia przyjęły brytyjski Nutrient Profiling Model i na jego podstawie klasyfikowali produkty. Okazało się, że do grupy „mniej zdrowe” trafiło 40% produktów mięsnych i 14% ich alternatyw.
Autorzy jeszcze innych prac zauważali, że roślinne alternatywy dla mięsa i produktów mlecznych pomagały w utracie wagi, budowie masy mięśniowej i można było je stosować w diecie osób z różnymi schorzeniami. Alternatywy mięsa łatwo jest wzbogacać o najróżniejsze składniki pokarmowe, zwiększając zawartość aminokwasów, witamin czy przeciwutleniaczy. Dalszy rozwój technologii ich produkcji pozwoli zapewne na kolejne polepszanie ich właściwości odżywczych.
Główny autor analizy, doktor Chris Bryant, mówi, że coraz bardziej widać, iż roślinne alternatywy są w stanie zmniejszyć zapotrzebowanie na mięso odwołując się do trzech podstawowych czynników: smaku, ceny i wygody. Nasz przegląd dostarcza przytłaczających dowodów na to, roślinne zamienniki mięsa nie tylko są produkowane w sposób bardziej zrównoważony powodując mniejszą emisję gazów cieplarnianych, mniejsze zużycie wody i terenu, ale niosą ze sobą również liczne korzyści zdrowotne.
Uczony zauważa, że pomimo olbrzymich postępów na polu produkcji takich zamienników, wciąż istnieją olbrzymie możliwości poprawy ich smaku, tekstury czy metod przyrządzania. Istnieje też wielki potencjał zwiększenia ich właściwości zdrowotnych, na przykład poprzez dodanie witamin, podsumowuje.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Naukowcy z Yale University sądzą, że możliwe byłoby wykorzystanie roślin do... badaniach chorób psychicznych u ludzi. I nie tylko tak sądzą, ale nawet poczynili pierwszy ważny krok w kierunku takich badań. Na łamach Cellular and Molecular Life Sciences opisali gen, który jest bardzo podobny u roślin oraz ssaków i który w obu grupach wpływa na zachowanie.
Wiele lat temu zainteresowałem się ideą mówiącą, że w każdym żywym organizmie musi do pewnego stopnia istnieć jakaś homologia, jakieś podobieństwo w tym, czym są i co robią, mówi profesor medycyny porównawczej Tamas Horvath. Gdy z czasem zaczął badać zachowanie i mitochondria, przypomniał sobie o swoich dawnych zainteresowaniach. Pomyślał, że gdyby zmienić pewne geny mitochondriów u zwierząt i zobaczyć, jak wpłynęło to na zachowanie, a następnie dokonać podobnych zmian w roślinach i porównać ich zachowanie, to być może udałoby się lepiej zrozumieć ludzkie zachowanie na podstawie badań roślin. A jeśli byłoby to możliwe, to być może w kolejnym kroku udałoby się stworzyć np. roślinny model schizofrenii.
Stworzenie takiego modelu oznaczałoby, że mielibyśmy alternatywną grupę organizmów żywych – nie tylko ssaki – na której można by badać podstawy ludzkiego zachowania, mówi Horvath, przypominając, że celem medycyny porównawczej jest właśnie badanie, jak modele tworzone na podstawie innych gatunków mogą być użyte do badania ludzi.
Horvath i jego zespół zaczęli więc badać gen FMT (Friendly Mitochondria) w rzodkiewniku pospolitym oraz bardzo podobny gen myszy, CLUH (Clustered mitochondria homolog).
Mitochondria regulują ważne funkcje życiowe, jak metabolizm, i są kluczowe dla zdrowia. Zarówno u roślin, jak i u ludzi, źle funkcjonujące mitochondria mogą wpłynąć na rozwój i pojawienie się licznych chorób. U ludzi mają wpływ na rozwój m.in. chorób neurodegeneracyjnych.
Grupa Horvatha zbadała rośliny z prawidłowo funkcjonującym FMT, rośliny pozbawione FMT oraz rośliny z nadaktywnym FMT. Okazało się, że gen ten wpływa na wiele elementów rośliny, w tym na kiełkowanie, długość systemu korzeniowego, czas kwitnienia czy wzrost liści. Jednak nie tylko. Naukowcy przeanalizowali również dwie ważne reakcje badanych roślin.
Pierwszą z nich była reakcja na obecność nadmiernej ilości soli. Zbyt dużo soli może zabić roślinę, więc rośliny rozwinęły zachowania pomagające jej unikać. Gdy w środowisku pojawia się nadmiar soli, rośliny zatrzymują kiełkowanie, opóźniają kwitnienie, zatrzymują rozrastanie się systemu korzeniowego. Okazało się, że FMT jest krytycznym elementem regulującym te zachowania.
Drugi typ zachowania roślin, jaki został zbadany, to ich ruchy bazujące na rytmie dobowym. "Rośliny są niezwykle wrażliwe na rytm dobowy, gdyż światło jest krytycznym źródłem energii, wyjaśnia Horvath. W przypadku rzodkiewnika rytm dobowy decyduje o poruszaniu się liści za dnia i w nocy. W ciągu dnia liście są bardziej płaskie i bardziej wystawione na słońce. Nocą liście się unoszą. Badania wykazały, że FMT reguluje zarówno zakres, jak i tempo ruchu liści.
Następnie uczeni, chcąc przełożyć swoje spostrzeżenia na świat zwierząt, badali cały szereg zachowań myszy, obserwując m.in. zwierzęta ze zredukowaną aktywnością CLUH. Okazało się, że myszy, u których CLUH było mniej aktywne, przebywały krótsze odcinki i poruszały się wolniej.
Reakcja myszy była podobna do reakcji roślin. Doszło do zmiany tempa i ogólnej lokomocji. To bardzo proste porównanie, ale pokazuje, że mamy tutaj do czynienia z obecnym w mitochondriach mechanizmem, który odpowiada za podobne funkcje u zwierząt i roślin, wyjaśnia Horvath.
Naukowcy mówią, że to ekscytujący pierwszy krok, gdyż rośliny takie jak rzodkiewnik mają bardzo wiele genów i procesów komórkowych, które są podobne do genów i procesów komórkowych u ssaków.
Naszym długoterminowym celem jest stworzenie katalogu podobieństw pomiędzy roślinami a zwierzętami i wykorzystanie go do szukania odpowiedzi na pytania naukowe. Być może w przyszłości rośliny będą służyły jako organizmy modelowe w badaniach behawioralnych, stwierdza Horvath.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Szybką i bezbłędną klasyfikację białek, wykrywanie w nich miejsc wiążących potencjalne leki, identyfikowanie białek występujących na powierzchni wirusów, a także badania np. RNA, umożliwia nowe narzędzie bioinformatyczne opracowane przez naukowców z Wydziału Biologii UW.
BioS2Net, czyli Biological Sequence and Structure Network, jest zaawansowanym algorytmem wykorzystującym uczenie maszynowe, pozwalającym na klasyfikację nowo poznanych białek nie tylko na podstawie podobieństwa sekwencji aminokwasowych, ale także ich struktury przestrzennej. Publikacja na jego temat ukazała się na łamach pisma International Journal of Molecular Sciences.
Narzędzie opracował zespół kierowany przez dr. Takao Ishikawę z Zakładu Biologii Molekularnej Wydziału Biologii UW we współpracy z naukowcem z Wydziału Matematyki, Informatyki i Mechaniki UW. Jak mówią sami autorzy, jego głównym zastosowaniem jest usprawniona klasyfikacja białek, ponieważ obecnie stosowany system klasyfikacji strukturalnej opiera się na żmudnej pracy polegającej na porównywaniu struktur nowych białek do tych już skategoryzowanych.
Istnieje co prawda jego zautomatyzowany odpowiednik, jednak jest on bardzo restrykcyjny i bierze pod uwagę wyłącznie podobieństwo sekwencji białek, całkowicie pomijając ich strukturę. Takie narzędzie jak BioS2Net potencjalnie ma szansę znacząco usprawnić cały proces – wyjaśnia dr Ishikawa. Dodatkowo opracowana przez nas architektura może zostać użyta (po niewielkich przeróbkach) do innych zadań, niekoniecznie związanych z klasyfikacją. Przykładowo można by jej użyć do wykrywania w białku miejsc wiążących potencjalne leki lub do identyfikacji białek występujących na powierzchni wirusów.
Można sobie np. wyobrazić sytuację, w której dotychczas zaklasyfikowane do innych grup białka, dzięki zastosowaniu BioS2Net zostaną skategoryzowane jako bardzo podobne do siebie pod względem budowy powierzchni, mimo innego zwinięcia łańcucha białkowego wewnątrz struktury. I wówczas niewykluczone, że cząsteczka oddziałująca z jednym białkiem (np. jako lek) okaże się także skutecznym interaktorem dla drugiego – wymienia dalsze potencjalne zastosowania praktyczne narzędzia dr Ishikawa. Innym ciekawym zastosowaniem mogłoby być np. wykrywanie miejsc wiążących w białkach, które mogą stanowić albo cel dla leków, albo punkt interakcji z białkiem wirusowym.
Działanie BioS2Net opiera się na wykonywanych po sobie operacjach matematycznych, które bazują na danych o konkretnym białku. Do pracy narzędzie potrzebuje tychże danych (im więcej, tym lepiej), odpowiedniego oprogramowania zdolnego do wykonywania skomplikowanych obliczeń związanych z treningiem sieci neuronowej oraz sporej ilości czasu.
W efekcie BioS2Net tworzy unikatową reprezentację każdego białka w postaci wektora o stałym rozmiarze. Można to porównać do czegoś w rodzaju kodu kreskowego opisującego każde z poznanych białek – tłumaczy dr Ishikawa. Narzędzie świetnie nadaje się do klasyfikacji białek na podstawie sekwencji aminokwasowej oraz struktury przestrzennej. Szczególnie istotne jest to, że można dzięki niemu wykryć białka o podobnej strukturze trójwymiarowej, ale o odmiennym „foldzie”, czyli innym sposobie zwinięcia łańcucha białkowego.
Dotychczas stosowane metody przydzielałyby takie białka do osobnych grup. Tymczasem znane są przypadki, gdy tego typu cząsteczki pełnią podobne funkcje. I do wykrywania takich grup białek może się przydać BioS2Net – dodaje.
Jak mówi naukowiec, nowe białka odkrywa się cały czas. Zdecydowana większość z nich, jeśli już ma opisaną strukturę przestrzenną, jest deponowana w bazie danych Protein Data Bank, do której każdy ma dostęp przez Internet. Warto jednak zwrócić uwagę, że proces odkrywania nowych białek rozpoczyna się o wiele wcześniej, już na etapie sekwencjonowania genomu. W bazach danych genomów często można spotkać się z adnotacją ’hypothetical protein’ (pol. hipotetyczne białko). Istnieją algorytmy komputerowe, które na podstawie sekwencji nukleotydowych w zsekwencjonowanym genomie przewidują obszary przypominające geny, które potencjalnie kodują informację o białkach. I takich potencjalnych białek znamy bardzo wiele. Ich funkcje można częściowo przewidzieć na podstawie podobieństwa do cząsteczek już wcześniej opisanych, ale do pełnego poznania takiej roli i mechanizmu działania często jednak należy najpierw ustalić ich strukturę, co wymaga miesięcy lub lat eksperymentów – opowiada badacz z UW.
W przypadku białek podobna sekwencja aminokwasów z reguły przekłada się na podobną strukturę. Do niedawna był to wręcz dogmat w biologii strukturalnej. Dzisiaj jednak wiadomo – mówi dr Ishikawa – że wiele białek jest inherentnie nieustrukturyzowanych (IDP; ang. intrinsically disordered protein) albo przynajmniej zwiera w sobie tego typu rejony. Takie białka mogą przyjmować różne struktury w zależności od tego z jakimi innymi białkami w danym momencie oddziałują.
Dodatkowo bardzo istotny jest cały kontekst, w jakim białko ulega pofałdowaniu. Przykładowo, obecność tzw. białek opiekuńczych, czy nawet samo tempo syntetyzowania białka w komórce, może mieć niemały wpływ na ostateczny jego kształt, a zatem też na funkcje. Nie zmienia to jednak faktu, że cechą fundamentalną każdego białka jest jego sekwencja aminokwasowa – podkreśla.
A dlaczego w ogóle poznanie dokładnej budowy cząsteczki białka jest takie ważne? Autor publikacji wyjaśnia, że białka, realizując swoje zadania w komórce, zawsze przyjmują określoną strukturę. Np. jeśli chcemy zaprojektować nowy lek, który będzie oddziaływał z określonym białkiem, to fundamentalne znaczenie ma określenie struktury tego drugiego. W trakcie pandemii SARS-CoV-2 trzeba było np. określić strukturę wirusowego białka S (tzw. kolca) m.in. po to, aby można było zaproponować cząsteczkę swoiście z nim oddziałującą, a przez to zmniejszyć wydajność zakażania komórek człowieka – mówi. Podsumowując: badanie struktury białek ma ogromne znaczenie dla poznania ich funkcji i mechanizmu działania, a także innych cząsteczek z nimi oddziałujących.
Jeśli chodzi o sam BioS2Net, to najpierw należy ściągnąć z bazy danych i przetworzyć informacje o danym białku. Przetwarzanie służy temu, aby wszystkie cechy białka, takie jak współrzędne atomów, rodzaje aminokwasów, profil ewolucyjny itd., zamienić na liczby, które będą zrozumiałe dla komputera. Każdy pojedynczy atom cząsteczki jest opisywany przez kilkadziesiąt liczb, które wyrażają wspomniane cechy.
Następnie liczby te wprowadza się do sieci neuronowej, która analizuje każdy z atomów oraz ich najbliższych sąsiadów, biorąc pod uwagę zarówno ich ułożenie przestrzenne, jak i sekwencyjne. Kolejny etap to łączenie grup atomów w jeden „superatom”, który zawiera w sobie całą wyuczoną lokalną informację. Proces ten powtarza się do momentu aż ów „superatom” będzie zawierał zagregowane informacje o całym białku. To jest nasz kod kreskowy, który wykorzystujemy potem do klasyfikacji białka, używając standardowych sieci neuronowych – zaznacza dr Ishikawa.
Zapytany o dokładność nowego narzędzia biolog wyjaśnia, że jeśli chodzi o wytworzenie unikatowego wektora reprezentującego poszczególne białka, to BioS2Net robi to bezbłędnie, tzn. że każde białko jest reprezentowane w jedyny możliwy sposób i żadna inna cząsteczka nie będzie opisana w taki sam sposób.
Natomiast, gdy zastosowaliśmy BioS2Net do klasyfikacji białek, osiągnęliśmy wynik nawet 95,4 proc. trafności w porównaniu do obowiązującej klasyfikacji wg bazy danych. Oznacza to, że w ponad 95 przypadków na 100 BioS2Net był w stanie prawidłowo przyporządkować białko do danej grupy. Tutaj jednak warto wspomnieć, że ta obowiązująca klasyfikacja opiera się na podobieństwie sekwencji aminokwasowych i pomija informacje strukturalne – tłumaczy autor publikacji.
Naukowcy podkreślają, że poza głównym zastosowaniem, czyli klasyfikacją białek, BioS2Net będzie mógł służyć także do analizowania innych cząsteczek biologicznych, w tym RNA. Uważamy, że narzędzie można by też wykorzystywać do klasyfikacji zupełnie innych danych biologicznych, np. map chromosomów w jądrze komórkowym. Właściwie to nasza architektura może być przydatna wszędzie tam, gdzie jest zdefiniowana struktura i sekwencja – mówią.
Dr Ishikawa dodaje, że BioS2Net powstał w ramach pracy licencjackiej pierwszego autora (jego Alberta Roethla) wykonanej pod kierunkiem. Warto to podkreślić, bo to ważny sygnał, że licencjat niekoniecznie jest pracą dyplomową, którą po prostu trzeba zrobić, ale czymś, co ma potencjał naukowy i może zostać opublikowane w międzynarodowym czasopiśmie – zaznacza naukowiec.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.