Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Polska metoda badań struktur DNA uznana za przełomową dla rozwoju nauki

Recommended Posts

Zespół naukowców Uniwersytetu Warszawskiego pod kierunkiem dr hab. Joanny Kowalskiej opublikował na łamach czasopisma Nucleic Acids Research artykuł opisujący syntezę i zastosowanie fluorowanych cząsteczek DNA do badań funkcji i właściwości kwasów nukleinowych z wykorzystaniem fluorowego magnetycznego rezonansu jądrowego. Publikacja ta została uznana przez recenzentów za Breakthrough Paperartykuł przełomowy dla rozwoju nauki.

Zespół naukowców z Wydziału Fizyki UW oraz Centrum Nowych Technologii UW, który tworzą: dr hab. Joanna Kowalska, dr Marcin Warmiński, prof. Jacek Jemielity oraz Marek Baranowski, opublikował na łamach prestiżowego czasopisma naukowego Nucleic Acids Research (NAR) wyniki eksperymentów dotyczące syntezy i charakterystyki oligonukleotydów znakowanych atomem fluoru na jednym z końców nici kwasu nukleinowego (DNA) oraz ich zastosowań w badaniach metodą fluorowego jądrowego rezonansu magnetycznego (19F NMR).

Opisane związki stanowią nowy rodzaj sond molekularnych do prostego wykrywania różnych wariantów przestrzennych DNA (tzw. struktur drugorzędowych), takich jak fragmenty dwuniciowe (dupleksy), a także bardziej nietypowe struktury – tzw. struktury niekanoniczne (G-kwadrupleksy i i-motywy). Znakowane fluorem fragmenty DNA umożliwiają badanie tych struktur za pomocą wrażliwej na zmiany strukturalne metody, jaką jest spektroskopia 19F NMR.

Publikacja badaczy Uniwersytetu Warszawskiego otrzymała od recenzentów czasopisma Nucleic Acids Research status Breakthrough Paper – artykułu przełomowego dla rozwoju nauki. Recenzenci docenili połączenie prostego i wydajnego podejścia syntetycznego, umożliwiającego otrzymanie fluorowanych cząsteczek DNA, z wykorzystaniem metody 19F NMR. Połączenie to zaowocowało opracowaniem metody badawczej o szerokim spektrum zastosowań: od śledzenia zmian strukturalnych dupleksów DNA do monitorowania oddziaływań pomiędzy kwasem nukleinowym, a białkami i małymi cząsteczkami.

Rezultaty opisane w publikacji otwierają nowe możliwości w badaniach poznawczych kwasów nukleinowych, a także mogą znaleźć zastosowanie w odkrywaniu leków oddziałujących, poprzez specyficzne wiązanie, z określonymi sekwencjami lub strukturami przestrzennymi w DNA. Większość opracowywanych dotychczas leków działa poprzez oddziaływanie z białkami. Leki oddziałujące z DNA są natomiast mało selektywne, a przez to toksyczne. Opracowanie metod umożliwiających odkrywanie cząsteczek oddziałujących tylko z wybranymi sekwencjami DNA otwiera drogę do powstania leków charakteryzujących się znacznie mniejszą toksycznością – komentuje dr hab. Joanna Kowalska z Wydziału Fizyki UW, współautorka artykułu.

Nucleic Acids Research to czasopismo naukowe, którego celem jest popularyzacja najwyższej jakości badań, których rezultaty oceniane są przez grono naukowców-recenzentów w zakresie biologii molekularnej i komórkowej. Status Breakthrough Paper otrzymują publikacje opisujące badania, które rozwiązują istniejący od dawna problem lub wskazują nowe możliwości i kierunki rozwoju nauki.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Od dawna wśród astronomów i fizyków trwa spór, czy tajemnicza ciemna materia faktycznie istnieje we Wszechświecie - czy może są to jakieś odstępstwa od tego, jak rozumiemy grawitację. Naukowcy analizujący przegląd nieba KiDS, a wśród nich polski astronom Maciej Bilicki z Centrum Fizyki Teoretycznej PAN w Warszawie, sprawdzali to, wykorzystując obserwacje tysięcy galaktyk.
      Ciemna materia to składnik Wszechświata, którego nie obserwujemy bezpośrednio. O jej istnieniu wnioskujemy na podstawie oddziaływań grawitacyjnych ze zwykłą (świecącą) materią. Obecność ciemnej materii została zaproponowana dla wytłumaczenia obserwowanej rotacji galaktyk oraz ruchów galaktyk w gromadach – widzialnej materii jest zbyt mało, aby można było wytłumaczyć zachodzące w tych przypadkach efekty. Modele wskazują, że ciemnej materii jest kilkakrotnie więcej, niż materii zwykłej.
      W nowych badaniach, które przeprowadził zespół naukowców pod kierunkiem Margot Brouwer (Uniwersytet w Groningen i Uniwersytet Amsterdamski), postanowiono sprawdzić zarówno hipotezę ciemnej materii, jak i różne teorie grawitacji.
      Badacze wykorzystali dane z przeglądu nieba Kilo-Degree Survey (KiDS), wykonanego przy pomocy VLT Survey Telescope (VST), należącego do Europejskiego Obserwatorium Południowego (ESO). Mierzyli tzw. słabe soczewkowanie grawitacyjne, czyli niewielkie ugięcie światła galaktyk spowodowane przez grawitację innych galaktyk położonych bliżej nas. Do analiz wybrano galaktyki z obszaru nieba o powierzchni 1000 stopni kwadratowych (2,5 procent sfery niebieskiej), badając rozkład grawitacji dla około miliona galaktyk. Dane na temat analizowanych galaktyk pochodziły z katalogu opublikowanego niezależnie przez międzynarodową grupę, którą kierował dr hab. Maciej Bilicki.
      Dla prawie 260 tysięcy galaktyk udało się zmierzyć tzw. relację przyspieszenia radialnego (ang. Radial Acceleration Relation, w skrócie RAR). Opisuje ona związek pomiędzy spodziewaną, a obserwowaną grawitacją (obserwowaną na podstawie widocznej materii), z czego można wysnuć wnioski ile jest nadmiarowej grawitacji.
      Do tej pory ta nadmiarowa grawitacja była wyznaczana w zewnętrznych regionach galaktyk jedynie poprzez obserwację ruchu gwiazd oraz zimnego gazu. Wykorzystując efekt soczewkowania grawitacyjnego badacze byli teraz w stanie wyznaczyć RAR w rejonach o stukrotnie słabszej sile grawitacji niż dotąd, sięgając w rejony znajdujące się daleko poza centrami galaktyk.
      Sprawdzili cztery różne modele teoretyczne – dwa zakładające istnienie ciemnej materii i dwa ze zmodyfikowanym prawem grawitacji (tzw. „zmodyfikowana dynamika newtonowska”, w skrócie MOND od angielskiego określenia „Modified Newtonian Dynamics”). Okazało się, że najlepiej do wyników pasuje symulacja o nazwie MICE (jedna z uwzględniających ciemną materię), ale pozostałe warianty również pozostają w grze.
      W dalszym toku badań podzielono galaktyki z badanej próbki na młode (niebieskie galaktyki spiralne) i stare (czerwone galaktyki eliptyczne). Powstają one w różny sposób, a względna ilość zwykłej i ciemnej materii w różnych typach galaktyk może się zmieniać. Z kolei z alternatywnych teorie grawitacji wynika, że zależność ta powinna być stała. Dało to szansę na dalszą weryfikację poszczególnych modeli.
      W teoriach zmodyfikowanej grawitacji, takich jak MOND, ta relacja powinna być zawsze taka sama, niezależnie od typu galaktyki, gdyż jedynym znaczącym parametrem (determinującym RAR) jest w tych modelach łączna masa całej zwykłej materii (świecącej) – czyli gwiazd i gazu. Natomiast w standardowym modelu kosmologicznym galaktyki czerwone mają stosunkowo więcej ciemnej materii niż niebieskie, przy tej samej łącznej masie zwykłej materii – czyli stosunek ilości ciemnej materii do materii świecącej jest większy dla galaktyk czerwonych niż dla niebieskich, tłumaczy Bilicki.
      Nasze badania pokazują, że relacja RAR jest inna dla galaktyk czerwonych niż dla niebieskich. To wyjaśniałoby różnice w mierzonej relacji RAR i wykluczałoby teorie takie jak MOND czy grawitacja entropiczna, dodaje polski astronom.
      Naukowiec mówi, że potrzebne są jednak dalsze obserwacje, bowiem może zachodzić także sytuacja, że galaktyki czerwone mają w rzeczywistości znacznie więcej zwykłej materii niż nam się wydaje, jeśli są otoczone ogromnymi obłokami rzadkiego, gorącego gazu (w przeciwieństwie do niebieskich, które tego gorącego gazu miałyby znacznie mniej). Taki wariant nie wykluczałby przynajmniej niektórych alternatywnych teorii grawitacji.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W Niemczech stworzono algorytm, który identyfikuje geny biorące udział w powstawaniu nowotworów. Naukowcy zidentyfikowali dzięki niemu 165 nieznanych dotychczas genów zaangażowanych w rozwój nowotworu. Co bardzo istotne, algorytm ten identyfikuje również geny, w których nie doszło do niepokojących zmian w DNA. Jego powstanie otwiera nowe możliwości w walce z nowotworami i personalizowanej medycynie.
      W nowotworach komórki wyrywają się spod kontroli. Rozrastają się i rozprzestrzeniają w niekontrolowany sposób. Zwykle jest to spowodowane mutacjami w DNA. Jednak w przypadku niektórych nowotworów mamy do czynienia z bardzo małą liczbą zmutowanych genów, co sugeruje, że w grę wchodzą tutaj inne przyczyny.
      Naukowcy z Instytutu Genetyki Molekularnej im. Maxa Plancka oraz Instytut Biologii Obliczeniowej Helmholtz Zentrum München opracowali algorytm maszynowego uczenia się, który zidentyfikował 165 nieznanych dotychczas genów biorących udział w rozwoju nowotworów. Wszystkie nowo odkryte geny wchodzą w interakcje z dobrze znanymi genami pronowotworowymi.
      Algorytm EMOGI (Explainable Multi-Omics Graph Integration) potrafi też wyjaśnić związki pomiędzy elementami odpowiedzialnymi za powstanie nowotworu. Powstał on na podstawie dziesiątków tysięcy danych zgromadzonych w ramach badań nad nowotworami. Są tam informacje o metylacji DNA, aktywności poszczególnych genów, mutacjach, interakcji białek itp. itd. Na podstawie tych danych algorytm głębokiego uczenia się opracował wzorce oraz nauczył się rozpoznawania sygnałów molekularnych prowadzących do rozwoju nowotworu.
      Ostatecznym celem takiego algorytmu byłoby stworzenie dla każdego pacjenta całościowego obrazu wszystkich genów zaangażowanych w danym momencie w rozwój nowotworu. W ten sposób położylibyśmy podwaliny pod zindywidualizowaną terapię przeciwnowotworową, mówi Annalisa Marsico, która stoi na czele zespołu badawczego. Jej celem jest wybranie najlepszej terapii dla każdego pacjenta czyli takiego leczenia, które u konkretnej osoby da najlepsze wyniki i będzie miało najmniej skutków ubocznych. Co więcej, pozwoli nam to identyfikować nowotwory na wczesnych fazach rozwoju dzięki ich charakterystyce molekularnej.
      Dotychczas większość badaczy skupia się na patologicznych zmianach w sekwencjach genetycznych. Tymczasem w ostatnich latach coraz bardziej oczywiste staje się, że do rozwoju nowotworów mogą prowadzić również zaburzenia epigenetyczne czy rozregulowanie aktywności genów, stwierdza Roman Schulte-Sasse, doktorant współpracujący z Marsico.
      Dlatego właśnie naukowcy połączyli informacje o błędach w genomie z informacjami o tym, co dzieje się wewnątrz komórek. W ten sposób najpierw zidentyfikowali mutacje w genomie, a później znaleźli geny, które mają mniej oczywisty wpływ na rozwój nowotworu.
      Na przykład znaleźliśmy geny, których DNA jest niemal niezmienione, ale mimo to geny te są niezbędne do rozwoju guza, gdyż regulują dostarczanie mu energii, dodaje Schulte-Sasse. Tego typu geny działają poza mechanizmami kontrolnymi, gdyż np. doszło w nich do chemicznych zmian w DNA. Zmiany te powodują, że co prawda sekwencja genetyczna pozostaje prawidłowa, ale gen zaczyna inaczej działać. Takie geny to bardzo obiecujący cel dla terapii przeciwnowotworowych. Problem jednak w tym, że działają one w tle i do ich zidentyfikowania potrzebne są złożone algorytmy, dodaje uczony.
      Obecnie naukowcy wykorzystują swój algorytm do przeanalizowania związku pomiędzy proteinami a genami. Związki te można przedstawić w formie matematycznych grafów, stwierdza Schulte-Sasse. Dopiero współczesna technika pozwala na prowadzenie tego typu analiz. Schulte-Sasse już uruchomił algorytm, który analizuje dziesiątki tysięcy takich grafów z 16 różnych typów nowotworów. Każdy z grafów składa się z od 12 000 do 19 000 punktów z danymi.
      Już teraz zaczynamy zauważać pewne wzorce zależne od typu nowotworu. Widzimy dowody na to, że rozwój guzów jest uruchamiany za pomocą różnych mechanizmów molekularnych w różnych organach, wyjaśnia Marsico.
      Szczegóły badań zostały opublikowane na łamach Nature Machine Intelligence.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Niewiele związków jest dziś równie istotnych dla przemysłu i medycyny co ditlenek tytanu. Mimo różnorodności i popularności zastosowań, część zagadnień związanych z budową powierzchni materiałów tworzonych z tego związku i zachodzącymi w niej procesami wciąż pozostaje niejasnych. Niektóre ze swoich tajemnic ditlenek tytanu właśnie odsłonił przed naukowcami z Instytutu Fizyki Jądrowej Polskiej Akademii Nauk. W swoich badaniach po raz pierwszy wykorzystali oni synchrotron SOLARIS.
      W wielu reakcjach chemicznych ditlenek tytanu (TiO2) pojawia się w roli katalizatora. Jako pigment występuje w tworzywach sztucznych, farbach czy kosmetykach, z kolei w medycznych implantach gwarantuje ich wysoką biokompatybilność. Ditlenek tytanu jest dziś praktycznie wszechobecny, co wcale nie oznacza, że ludzkość poznała już jego wszystkie właściwości. Realizująca projekt badawczy na synchrotronie SOLARIS grupa naukowców z Instytutu Fizyki Jądrowej Polskiej Akademii Nauk (IFJ PAN) w Krakowie, kierowana przez dr. hab. Jakuba Szlachetkę, zdołała rzucić nieco światła na szczegóły procesów utleniania zewnętrznych warstw próbek tytanowych oraz związane z nimi zmiany w strukturze elektronowej tego materiału. Badania ditlenku tytanu zainaugurowały obecność naukowców IFJ PAN w programach badawczych realizowanych na synchrotronie SOLARIS. Urządzenie, działające w ramach Narodowego Centrum Promieniowania Synchrotronowego, jest zlokalizowane w Krakowie na terenie kampusu 600-lecia Uniwersytetu Jagiellońskiego.
      Promieniowanie synchrotronowe odkryto w 1947 roku, gdy w firmie General Electric uruchomiono akcelerator, który za pomocą magnesów zakrzywiał tor ruchu przyspieszanych elektronów. Cząstki zaczynały wtedy chaotycznie emitować światło, traciły więc energię – a przecież miały ją zyskiwać! Promieniowanie synchrotronowe uznano zatem za efekt niepożądany. Dopiero dzięki kolejnym generacjom źródeł promieniowania synchrotronowego osiągnięto większe natężenia i lepszą jakość wiązek emitowanego światła, w tym wysoką powtarzalność impulsów o praktycznie zawsze takich samych cechach.
      Synchrotron SOLARIS, największe i najnowocześniejsze urządzenie tego typu w Europie Środkowej, składa się z dwóch głównych części. Pierwszą tworzy liniowy akcelerator elektronów o długości 40 m. Cząstki zyskują tu energię 600 megaelektronowoltów, po czym trafiają do drugiej części aparatury: do wnętrza pierścienia akumulacyjnego o obwodzie 96 m, gdzie na ich drodze umieszczono magnesy zakrzywiające oraz wigglery i undulatory. Te ostatnie to zespoły naprzemiennie zorientowanych magnesów, wewnątrz których tor ruchu elektronów zaczyna przypominać kształtem sinusoidę. To właśnie wtedy "zataczające się" elektrony emitują promieniowanie synchrotronowe, kierowane do odpowiednich stacji końcowych z aparaturą pomiarową. Fale elektromagnetyczne wytwarzane przez SOLARIS są klasyfikowane jako miękkie promieniowanie rentgenowskie.
      Unikatowe cechy promieniowania synchrotronowego znajdują wiele zastosowań: pomagają w pracach nad nowymi materiałami, śledzeniu przebiegu reakcji chemicznych, pozwalają prowadzić doświadczenia przydatne dla rozwoju nanotechnologii, mikrobiologii, medycyny, farmakologii i wielu innych dziedzin nauki i techniki.
      Badania na synchrotronie SOLARIS otwierają zupełnie nowe możliwości, nic dziwnego, że o czas pomiarowy aplikuje tu wiele zespołów naukowych z kraju i świata. Choć nasz instytut – podobnie jak synchrotron SOLARIS – mieści się w Krakowie, jak wszyscy rywalizowaliśmy jakością proponowanych badań o czas pracy na odpowiedniej stacji pomiarowej - mówi prof. dr hab. Wojciech M. Kwiatek, kierownik Oddziału Badań Interdyscyplinarnych w IFJ PAN i jednocześnie Prezes Polskiego Towarzystwa Promieniowania Synchrotronowego. Prof. Kwiatek zauważa, że w dobie ograniczeń w podróżowaniu, wynikających z rozwoju pandemii, możliwość prowadzenia zaawansowanych badań fizycznych praktycznie na miejscu jest ogromną zaletą.
      Swoje najnowsze pomiary, współfinansowane ze środków Narodowego Centrum Nauki, naukowcy z IFJ PAN przeprowadzili na stacji badawczej XAS krakowskiego synchrotronu. Rejestrowano tu, w jaki sposób promieniowanie rentgenowskie jest pochłaniane przez warstwy powierzchniowe próbek tytanowych, wcześniej wytworzonych w Instytucie w starannie kontrolowanych warunkach.
      Skoncentrowaliśmy się na obserwacjach zmian struktury elektronowej powierzchniowych warstw próbek w zależności od zmian temperatury i postępu procesu utleniania. W tym celu wygrzaliśmy w różnych temperaturach i w atmosferze otoczenia dyski tytanowe, które po przetransportowaniu do stacji badawczej synchrotronu naświetlaliśmy wiązką promieniowania synchrotronowego, czyli promieniowaniem rentgenowskim. Ponieważ właściwości promieniowania synchrotronowego są doskonale znane, mogliśmy za jego pomocą precyzyjnie określić strukturę nieobsadzonych stanów elektronowych atomów tytanu i na tej podstawie wnioskować o zmianach w strukturze samego materiału - mówi doktorantka Klaudia Wojtaszek (IFJ PAN), pierwsza autorka artykułu opublikowanego w czasopiśmie Journal of Physical Chemistry A.
      Ditlenek tytanu występuje w trzech odmianach polimorficznych, charakteryzujących się różną budową krystalograficzną. Najpopularniejszą jest rutyl, jako minerał występujący pospolicie w wielu skałach (pozostałe odmiany to anataz i brukit). Badania na synchrotronie SOLARIS pozwoliły krakowskim fizykom precyzyjnie odtworzyć proces formowania się fazy rutylowej. Okazało się, że powstaje ona w niższych temperaturach niż sądzono do tej pory.
      Nasze badania mają charakter podstawowy, dostarczają fundamentalnej wiedzy o strukturze materiału. Struktura ta ma jednak ścisły związek z właściwościami fizykochemicznymi powierzchni ditlenku tytanu. Potencjalnie nasze wyniki mogą więc znaleźć zastosowanie na przykład przy optymalizowaniu właściwości powierzchniowych implantów medycznych - podsumowuje dr Anna Wach (IFJ PAN), która była odpowiedzialna za wykonanie eksperymentu na synchrotronie SOLARIS.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Ruszyła największa w Europie sieć koordynująca badania astronomiczne - OPTICON-RadioNet Pilot (ORP). Biorą w niej udział astronomowie z Uniwersytetu Mikołaja Kopernika w Toruniu oraz Uniwersytetu Warszawskiego. Projekt o wartości 15 mln euro jest finansowany z programu Komisji Europejskiej Horyzont 2020.
      Połączenie dwóch sieci
      Dotąd w Europie działały 2 główne sieci, które koordynowały współpracę instrumentów naziemnych. OPTICON był związany z obserwacjami w zakresie widzialnym, zaś RadioNet w zakresie radiowym. Powstała w wyniku ich połączenia ORP zapewni europejskim naukowcom dostęp do szerokiej gamy teleskopów oraz, co ważne, wesprze rozwój naukowy młodych astronomów.
      Jak podkreślono w komunikacie na stronie Uniwersytetu Mikołaja Kopernika, projekt ORP ma na celu rozwój tzw. astronomii wieloaspektowej, obejmującej nie tylko badania w szerokim zakresie promieniowania elektromagnetycznego, ale także fale grawitacyjne, promieniowanie kosmiczne i neutrina. Dlatego duży nacisk kładzie się na ujednolicenie metod i narzędzi obserwacyjnych oraz rozszerzenie dostępu do wielu różnych instrumentów astronomicznych.
      OPTICON-RadioNet Pilot
      Projektem kierują Centre National de la Recherche Scientifique (CNRS), Uniwersytet w Cambridge oraz Instytut Radioastronomii im. Maxa Plancka w Bonn. Współpraca obejmuje 37 instytucji z 15 krajów europejskich, Australii i RPA.
      W ramach opisywanego przedsięwzięcia zaplanowano opracowanie standardów obserwacji nieba i analizy danych dla teleskopów optycznych i radioteleskopów. Projekt ma też ułatwić europejskim astronomom dostęp do najlepszych teleskopów na świecie, np. 100-metrowego radioteleskopu z Bonn.
      Zadania zespołów z Torunia i Warszawy
      Badania naukowe w ramach ORP na Uniwersytecie Mikołaja Kopernika będą prowadzone zarówno w zakresie radiowym, jak i widzialnym przy użyciu instrumentów znajdujących się w Obserwatorium Astronomicznym UMK w Piwnicach pod Toruniem. Całość prac naukowych na UMK będzie koordynowana przez dr hab. Agnieszkę Słowikowską [...]. W zakresie radiowym użyty zostanie największy polski radioteleskop o średnicy 32 metrów, który w 2020 r. przeszedł gruntowną renowację. Natomiast do pomiarów w zakresie widzialnym wykorzystany zostanie największy w Polsce teleskop optyczny (zwierciadło główne o średnicy 90 cm). Dr Słowikowska została wybrana na przewodniczącą zespołu koordynującego ORP (w jego skład wchodzi 37 reprezentantów wszystkich zaangażowanych instytucji).
      Zespół z Obserwatorium Astronomicznego Uniwersytetu Warszawskiego, którym kieruje prof. Łukasz Wyrzykowski, będzie z kolei odpowiadać za koordynację działania rozproszonych po całym świecie małych i średnich teleskopów naziemnych; jego celem będzie monitorowanie zmienności czasowej interesujących obiektów. Sieć składa się z ok. 100 teleskopów, w tym 50 robotycznych. Jednym z jej elementów jest 60-centymetrowy teleskop, znajdujący się w Północnej Stacji Obserwacyjnej UW w Ostrowiku pod Warszawą - wyjaśniono w relacji prasowej UW.
      Od 2013 r. zespół prof. Wyrzykowskiego brał udział w pracach sieci OPTICON. Opierając się na zdobytym doświadczeniu, opracowano system internetowy do obsługi licznych teleskopów i wysyłania zamówień na systematyczne obserwacje tych samych obiektów (w ten sposób można badać ich zmienności). Takie narzędzie ułatwia naukowcom prowadzenie badań obiektów tymczasowych i zmiennych w czasie, np. supernowych czy zjawisk soczewkowania grawitacyjnego wywołanych przez czarne dziury. Tego typu obserwacje niejednokrotnie muszą być prowadzone przez wiele miesięcy, a nawet lat. Sieć wielu małych teleskopów rozmieszczonych na całym świecie zapewnia możliwość obserwacji obu półkul nieba przez całą dobę - tłumaczą astronomowie z Warszawy.
      Zespół, który z ramienia Obserwatorium Astronomicznego UW bierze w projekcie ORP, tworzą: dr Mariusz Gromadzki, mgr Krzysztof Rybicki, mgr Monika Sitek i prof. dr hab. Łukasz Wyrzykowski.
      Należy podkreślić, że astronomowie z UW od wielu lat zajmują się systematycznym monitorowaniem zmienności obiektów. To tu w latach 60. zeszłego stulecia Bohdan Paczyński prowadził badania nad obserwacyjnymi aspektami fal grawitacyjnych w układach podwójnych gwiazd. Od 1996 r. astronomowie prowadzą zaś pod przewodnictwem prof. Andrzeja Udalskiego długotrwałe obserwacje nieba za pomocą Teleskopu Warszawskiego w Chile (odkrywają planety i gwiazdy zmienne).

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Polskim matematykom udało się rozwiązać ważny problem dotyczący symetrii wszystkich symetrii. Był to nierozwiązany od kilku dekad problem – jedno z największych wyzwań geometrycznej teorii grup.
      Wyniki pracy dr. Marka Kaluby (Uniwersytet im. Adama Mickiewicza i Karlsruher Institut fur Technologie), prof. Dawida Kielaka (Uniwersytet Oksfordzki) i prof. Piotra Nowaka (Instytut Matematyczny PAN) ukazały się w jednym z najbardziej prestiżowych pism matematycznych Annals of Mathematics.
      Rozwiązaliśmy pewien od dawna otwarty problem, pokazując, że pewna nieskończona rodzina obiektów algebraicznych – grup – ma własność T, a więc, że jest bardzo niekompatybilna z geometrią Euklidesa – podsumowuje Nowak.
      A dr Marek Kaluba dodaje: Dzięki naszym badaniom zrozumieliśmy pewne geometryczne aspekty grup kodujących symetrie wszystkich symetrii.
      Obiekty z własnością T, których dotyczyły badania, mają bardzo egzotyczne właściwości geometryczne (nie daje się ich zrealizować jako symetrii w geometrii euklidesowej). Wydaje się to oderwane od rzeczywistości? Na pozór tak. Ale wiedza o tej skomplikowanej własności T znalazła już zastosowanie. Pozwala choćby konstruować ekspandery – grafy z dużą ilością połączeń wykorzystywane m.in. w algorytmach streamingujących. A takie algorytmy odpowiadają m.in. za wskazywanie trendów na Twitterze.
      Pytanie czy grupy, które badaliśmy, mają taką własność T, pojawiło się w druku w latach 90. Kiedy byłem doktorantem, to był to problem, o którym słyszałem na co drugim wykładzie i konferencji z teorii grup – streszcza Piotr Nowak.
      A Dawid Kielak dodaje: Nasz wynik wyjaśnia działanie pewnego algorytmu. To algorytm Product Replacement używany, kiedy chce się losować elementy spośród ogromnych zbiorów np. liczących więcej elementów niż liczba cząsteczek we Wszechświecie. Ten algorytm istnieje od lat 90. i działa dużo lepiej, niż można się było spodziewać. Nasz artykuł tłumaczy, dlaczego on tak dobrze działa – mówi prof. Kielak.
      I dodaje: informatyka to nowa fizyka. To, co nas otacza, to nie tylko cząsteczki, ale coraz częściej - również algorytmy. Naszym zadaniem jako matematyków będzie więc i to, by zrozumieć algorytmy, pokazywać, dlaczego one działają albo nie; dlaczego są szybkie lub wolne.
      Naukowcy w swoim matematycznym dowodzie wspomogli się obliczeniami komputerowymi. Używanie komputerów do dowodzenia twierdzeń w matematyce nie uchodziło dotąd raczej za eleganckie. Społeczność matematyków teoretycznych zwykle kręciła nosem na komputery. Tu jednak tu takie nowoczesne podejście spisało się wyjątkowo dobrze.
      Komputer wykonał tylko żmudną robotę. Ale nie zastąpił logiki. Naszym pomysłem było bowiem to, żeby zastosować redukcję nieskończonego problemu do problemu skończonego – mówi prof. Kielak.
      A dr Marek Kaluba dodaje: zredukowaliśmy nasz problem do problemu optymalizacyjnego, a następnie użyliśmy do tej optymalizacji standardowych narzędzi – algorytmów, których inżynierowie używają do projektowania elementów konstrukcyjnych.
      Komputer dostał więc zadanie, by znaleźć macierz spełniającą określone kryteria. Maszyna tworzyła więc rozwiązanie, sprawdzała, jak dobrze ona spełnia ono zadane warunki i stopniowo poprawiała tę macierz, żeby dojść do jak najmniejszego poziomu błędu. Pytanie brzmiało tylko, jak niewielką skalę błędu jest w stanie uzyskać.
      Okazało się, że błąd komputera w ostatnim przybliżeniu był bardzo, bardzo niewielki. Obliczenie komputera pozwalało więc – przy użyciu odpowiednich matematycznych argumentów – uzyskać ścisły dowód.
      Macierz, którą stworzył komputer, miała 4,5 tysiąca kolumn i 4,5 tysięcy wierszy.
      Marek Kaluba tłumaczy zaś, że problem, nad którym pracowali, był początkowo zbyt duży, żeby go rozwiązać dysponując nawet superkomputerem. Wobec tego użyliśmy wewnętrznych symetrii tego problemu, aby ułatwić poszukiwania rozwiązania – mówi. I tłumaczy, że analogiczne podejście będzie można stosować i w rozwiązywaniu innych problemów z zakresu optymalizacji obiektów, które cechują się geometrycznymi symetriami. Te symetrie (w algebraicznej formie) będzie można zaobserwować również w problemie optymalizacyjnym i użyć ich do redukcji złożoności – mówi dr Kaluba. I dodaje: Chociaż więc zajmujemy się abstrakcyjną matematyką, to chcemy, by nasze oprogramowanie było przydatne również w inżynierskich zastosowaniach.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...