Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags 'Imperial College London'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 12 results

  1. Naukowcy pracujący pod kierunkiem zespołu z Imperial College London dokonali niespodziewanego odkrycia. Jeśli się ono potwierdzi, możliwe będzie eksperymentalne zbadanie prawdziwości teorii strun. Teoria strun i jej późniejsze rozwinięcie - M-teoria - to matematyczny model budowy wszechświata. Jest ona rozwijana od 25 lat przez uczonych, chcących pogodzić ze sobą ogólną teorię względności oraz mechanikę kwantową. M-teoria to potencjalna teoria wszystkiego. Przewiduje ona istnienie wielowymiarowych przestrzeni, wielu wszechświatów, a największą jej słabością jest niemożność przetestowania, które z udzielanych przez nią odpowiedzi są prawdziwe. Profesor Michael Duff i jego koledzy w Imperial College odkryli, że teoria strun może służyć do przewidzenia zachowania splątanych cząstek. To z kolei oznacza, iż można ją przetestować w laboratorium. Nie uzyskamy dowodu na to, że teoria strun jest dobrą 'teorią wszystkiego', jakiej poszukują kosmolodzy i fizycy cząstek. Jednak jej sprawdzenie będzie bardzo ważne dla teoretyków, gdyż pokaże, czy teoria strun w ogóle działa, nawet na tych polach, na których się nie spodziewamy lub które nie są związane z fizyką - mówi Duff. Uczony wpadł na trop odkrycia podczas konferencji naukowej na Tasmanii, gdy słuchał wykładu dotyczącego matematycznej formuły opisującej splątanie kwantowe. Nagle zauważyłem, że formuła ta jest podobna do niektórych wzorów, które używałem do badania czarnych dziur na gruncie teorii strun. Gdy wróciłem do kraju zajrzałem do swoich notatek i okazało się, że matematyczne formuły opisujące tak różne rzeczy były identyczne - opowiada profesor. Jako,że potrafimy uzyskiwać i badań stany splątane, możliwe będzie wykorzystanie teorii strun do przewidywania ich zachowania, a następnie przeprowadzenie eksperymentów, które pozwolą stwierdzić, na ile przewidywania były prawidłowe. Profesor Duff zauważa, że nie wiadomo, dlaczego teoria strun może opisywać stany splątane. Jego zdaniem wytłumaczenia mogą być dwa: albo mówi nam to coś ważnego o wszechświecie, albo też jest to zwykły przypadek. Tak czy inaczej, jest to użyteczne - stwierdza uczony. Przeprowadzenie odpowiednich eksperymentów i wykonanie obliczeń będzie trudne, gdyż musi dotyczyć nie pary, ale czterech splątanych cząstek.
  2. Matematycy z Imperial College London oraz instytucji badawczych z Australii, Japonii i Rosji pracują nad "tablicą okresową kształtów". Mają się w niej znaleźć wszelkie możliwe kształty, które mogą istnieć w przestrzeni trój-, cztero- i pięciowymiarowej. Będą one ze sobą powiązane podobnie, jak powiązane są poszczególne pierwiastki w tablicy Mendelejewa. Po opracowaniu kształtów rozpoczną się prace nad formułami matematycznymi, które będą je opisywały. Dzięki temu będziemy lepiej rozumieli geometrię i zależności pomiędzy różnymi kształtami. Tablica okresowa to jedno z najważniejszych narzędzi chemii. Opisuje ona atomy, z których wszystko jest stworzone i wyjaśnia ich właściwości chemiczne. My chcemy uczynić so samo odnośnie kształtów w przestrzeni trój-, cztero- i pięciowymiarowej - pragniemy stworzyć listę podstawowych cegiełek geometrycznych i opisać właściwości każdej z nich za pomocą stosunkowo prostych równań. Sądzimy, że takich kształtów będzie wiele, więc naszej tablicy nie powiesimy sobie na ścianie, jednak będzie ona bardzo przydatnym narzędziem - mówi profesor Alessio Corti, lider projektu. Jeden z naukowców biorących udział w projekcie, doktor Tom Coates, stworzył już oprogramowanie, które powinno pomóc w odnalezieniu poszczególnych bloków budujących wszystkie kształty. Dzięki niemu uzyskamy figury podstawowe, które będzie można opisać odpowiednimi równaniami. Uczeni spodziewają się, że takich figur będzie kilka tysięcy. Większość osób potrafi sobie wyobrazić kształty trójwymiarowe, ale ci, którzy nie specjalizują się w tym, czym my się zajmujemy, mogą mieć problemy z czterema i pięcioma wymiarami. Tymczasem zrozumienie takich kształtów jest bardzo ważne dla wielu dziedzin nauki. Na przykład równanie dla kształtów pięciowymiarowych może się przydać, jeśli chcemy poinstruować robota, by spojrzał na jakiś obiekt, a następnie wysunął ramie, by go podnieść. Jeśli jesteś fizykiem, możesz potrzebować analizy kształtów do badania ukrytych wymiarów wszechświata, by zrozumieć świat cząsteczek subatomowych - mówi Coates.
  3. Mimo dekad rozwoju genetyki, sekwencjonowanie DNA jest procesem kosztownym i uciążliwym. Pierwsze pełne zsekwencjonowanie całego ludzkiego genomu odbyło się w 2001 roku kosztem trzech miliardów dolarów, mimo ciągłego udoskonalania metod i redukcji ceny jeszcze w roku 2007 taka procedura kosztowała milion dolarów. Brytyjscy naukowcy z Imperial College London opatentowali technologię, która ma w ciągu dziesięciu lat obniżyć cenę sekwencjonowania pełnego genomu do kilku dolarów i skrócić czas do kilku minut. Obecnie odczytanie sekwencji DNA jest kosztowne i wyjątkowo długotrwałe (przeciętne tempo odczytu to około 10 par zasad na sekundę, a trzeba ich odczytać ponad trzy miliardy), ponieważ wymaga najpierw cięcia - przy pomocy odpowiednich enzymów - nici DNA na mniejsze fragmenty, namnażaniu ich, a dopiero potem odczytywaniu i składaniu na powrót w całość. Cały proces jest dodatkowo podatny na błędy. Naukowcy z Imperial College London pokonują kolejne bariery na drodze do skonstruowania czytnika, który będzie odczytywał pary zasad w tempie 10 milionów na sekundę, nie wymagając żadnych zabiegów przygotowawczych, cięcia czy składania na powrót nici DNA. Sztuka polega na przeciąganiu nici DNA z dużą prędkością (z zastosowaniem ładunku elektrycznego) przez otwór o średnicy 50 nanometrów w specjalnym silikonowym chipie. Po drugiej stronie otworu znajdują się dwie nanoelektrody w odstępie zaledwie 2 nanometrów. Przechodzące między nimi pary zasad (A, C, T, G) są odczytywane z wykorzystaniem „tunelowego połączenia elektrod". Odczytywaniem i składaniem informacji w całość miałby zająć się odpowiednio szybki komputer. Do tej pory problemem była precyzja wykonania takiego instrumentu, obecnie jednak udało się osiągnąć oczekiwane rezultaty, dzięki zastosowaniu platynowych elektrod. Stworzenie w pełni działającego zestawu ma zająć jeszcze dziesięć lat, ale technologia już została opatentowana. Możliwość poznania indywidualnego genomu przez każdego człowieka, szczególnie w połączeniu z coraz lepszym rozumieniem jego funkcjonowania, bez wątpienia stanowić będzie postęp w naukach biologicznych i medycznych. Nieodległy wydaje się czas, kiedy każdy natychmiast będzie mógł poznać swoje „słabe strony" - podatność na określone choroby, czas życia, itd. Autorzy pracy „DNA Tunneling Detector Embedded in a Nanopore" opublikowanej w NanoLetters to Aleksandar P. Ivanov, Emanuele Instuli, Catriona M. McGilvery, Geoff Baldwin, David W. McComb, Tim Albrecht i Joshua B. Edel. Łatwość taka może jednak rodzić zagrożenia. Po takie narzędzie bez wątpienia sięgnęłyby na przykład firmy ubezpieczeniowe, albo wywiady, które z radością dowiedziałyby się na przykład, kto z inwigilowanych dyplomatów ma wrodzoną skłonność do nałogów. Wizję takiego świata niósł amerykański film s-f Gattaca z 1997 roku. W świecie tym każde dziecko już przed urodzeniem miało opracowany profil zdrowotny, ludzi identyfikowano po ich DNA szybciej niż dzięki odciskom palców. W filmowym świecie łatwość ta doprowadziła niestety do smutnych efektów: pojawienia się „genowego rasizmu" i podzielenia ludzi na kasty.
  4. Obecny kryzys finansowy uświadomił wielu, że zdecydowanie przeceniano stabilność gospodarki rynkowej i że metody inwestowania stosowane przez banki nie są właściwe. Brytyjski naukowiec w swojej pracy pokazał, dlaczego podejmujemy nadmierne ryzyko. Inwestor musi w swojej pracy ogarnąć i porównać niezliczoną ilość możliwych scenariuszy rozwoju rynku. Nieskończoną liczbę możliwości trzeba jednak ograniczyć do kilku najbardziej prawdopodobnych i możliwych do wyrażenia niewieloma współczynnikami. Inwestorzy stosują dwie strategie oceniania potencjalnego rozwoju rynku: uśrednianie równoległe - uwzględnianie możliwych scenariuszy rozwoju jednocześnie; lub uśrednianie czasowe - traktowanie ich jako ciągu następujących po sobie. Najczęściej stosowane jest pierwsze podejście, uśrednianie równoległe: konstruuje się różne scenariusze wychodząc od tych samych założeń i uśrednia ich wyniki. Uśrednianie czasowe polega zaś na ułożeniu scenariuszy na linii czasu, gdzie wynik jednego jest stanem początkowym dla następnego. Jak pisze w swoim studium doktor Ole Peters z brytyjskiego Imperial College London, ponieważ my sami żyjemy w linii czasu, każda decyzja ogranicza możliwość manewru przy podejmowaniu następnej, dlatego uśrednianie czasowe pozwala lepiej przewidywać wyniki inwestycji. Uśrednianie równoległe nie bierze zaś pod uwagę tak prostej kwestii, że raz podjętych decyzji nie da się cofnąć. Oba podejścia dają bardzo różne wyniki, powszechnie stosowane uśrednianie równoległe nie bierze pod uwagę rynkowych fluktuacji, przez co zdecydowanie zaniża ryzyko inwestycji, sprzyjając inwestowaniu bardziej niebezpiecznemu. Ostatni kryzys finansowy pokazał dobitnie, jakie mogą być skutki zbyt agresywnego inwestowania, zarówno w transakcjach między bankami, jak i bankami i pożyczkobiorcami. Uśrednianie czasowe w planowaniu wymaga wyjątkowych okoliczności, aby współczynnik inwestycji przekraczał 1. Współczynniki inwestycyjne, osiągane przez banki przed kryzysem, wywołałyby alarm, dochodziły bowiem często do 40-60. Duże zyski okazały się mało realne, powodując w pewnym momencie zapaść rynku. Uśrednianie czasowe sprzyjałoby lepszej ocenie ryzyka, bardziej odpowiedzialnej polityce i skutkowało zdrowszym i stabilniejszym rynkiem. Praca Optimal leverage from non-ergodicity ukazała się w Quantitative Finance.
  5. Wizjonerzy mamią nas wizjami komputerów kwantowych od dobrych dwudziestu lat. I pomimo nieustannego postępu w tej dziedzinie, w zasadzie wciąż jedyne osiągnięcia to laboratoryjne przykłady, a największy zbudowany „komputer" składał się z... aż trzech qubitów, czyli kwantowych bitów. Największym problemem, jak się uważa, będzie niezawodność takich konstrukcji i odporność na błędy, trudno bowiem zapanować nad stanem każdego pojedynczego atomu czy elektronu. Jak uważają angielscy i australijscy naukowcy, sprawa niekoniecznie musi być aż tak trudna. Doktor Sean Barrett z Imperial College London i Thomas Stace z University of Queensland w australijskim Brisbane sugerują dość proste rozwiązanie problemu błędów - korekcję. Korekcja błędów stosowana jest dzięki odpowiednim algorytmom w dzisiejszej elektronice, a wykorzystywana jest zwykle przy korzystaniu z pamięci masowych. Same programy korygujące muszą jednak działać niezawodnie... Korekcja błędnych danych w komputerze kwantowym musi jednak dotyczyć samego procesu przetwarzania, powinna zatem być jakoś powiązana z samym sposobem działania kwantowego mechanizmu. Taki sposób właśnie zaprojektował zespół pod kierunkiem dra Barreta. To system kontekstowego kodowania danych, który pozwala poprawnie działać algorytmom nawet w przypadku ubytku lub przekłamania 25% qubitów. Polega on na rozmieszczeniu elementów na trójwymiarowej matrycy, podczas odczytu z której brane są pod uwagę również sąsiadujące elementy. Taki kwantowy komputer byłby, zdaniem angielsko-australijskiego zespołu, znacznie łatwiejszy do skonstruowania. Tym niemniej, to wciąż są na razie prace teoretyczne i do pojawienia się komercyjnych konstrukcji może upłynąć kolejnych dwadzieścia lat.
  6. David Nutt, szef wydziału neuropsychofarmakologii Imperial College London opublikował w piśmie Lancet wyniki swoich najnowszych badań dotyczących narkotyków. Wynika z nich, że najniebezpieczniejszymi na świecie używkami są alkohol, heroina i kokaina. W takiej właśnie kolejności. Profesor Nutt badał 20 używek, w tym tytoń, marihuanę, metaamfetaminę, ekstazy, heroinę czy alkohol. Każda z badanych substancji była punktowana pod kątem możliwości wyrządzenia krzywdy użytkownikowi. Sprawdzano zagrożenie związane z odniesieniem ran, uzależnieniem się, uszkodzeniem mózgu czy stratami społecznymi takimi jak utrata pracy czy zniszczenie związku. Prowadzono też badania na poziomie społeczeństwa szacując takie problemy jak wzrost przestępczości, upadek społeczności lokalnych, problemy w rodzinach i inne koszty, jakie poszczególne używki generują w społeczeństwie. Badania wykazały, że najbardziej niebezpiecznymi używkami z punktu widzenia osób indywidualnych są heroina i crack. Gdy jednak wzięto pod uwagę zagrożenia dla osób indywidualnych i dla społeczeństwa, najbardziej niebezpieczny jest alkohol. Na kolejnych miejscach uplasowały się heroina, crack, metaamfetamina i kokaina w proszku. Szóste miejsce zajął tytoń, a siódme amfetamina. Marihuana uplasowała się na ósmej pozycji, a posiadające złą sławę ecstazy, na... czternastej, wraz z czuwaliczką jadalną i sterydami anabolicznymi. Najmniej niebezpieczne w zestawieniu Nutta okazały się grzyby halucynogenne. Profesor Nutt za swoje opinie naukowe zapłacił rządowym stanowiskiem. Zaleca on bowiem, by marihuana została przesunięta w rządowej klasyfikacji z grupy C do bardziej niebezpiecznej grupy B i uważa, że esctazy powinno trafić z grupy A do B lub C. Na swoim blogu pisze on także, że rozważając kwestie legalizacji używek politycy powinni brać pod uwagę badania naukowe. Bez tego bowiem ryzykujemy, że spowodujemy więcej szkód ścigając użytkowników, niż spowodowałby legalny narkotyk. Dowody na szkodliwość narkotyków nie powinny być poświęcane na ołtarzu politycznej i medialnej presji.
  7. Temperatura na Ziemi jest, najprościej mówiąc, wypadkową trzech czynników: naturalnych procesów w przyrodzie, działalności człowieka oraz procesów astronomicznych, przede wszystkim Słońca. To, jak wiadomo, na przemian zwiększa i zmniejsza swoją aktywność w jedenastoletnim cyklu. Naturalne jest, że po bardziej aktywnym słońcu spodziewamy się silniejszego ogrzewania naszej planety. Okazuje się jednak, że intuicyjna ocena może bardzo mylić. Dowodzą tego badania profesor Joanny Haigh, wykładowczyni i dyrektor wydziału fizyki na Imperial College London oraz członkini tamtejszego Grantham Institute for Climate Change. Dane na temat aktywności Słońca i rozkładu jego promieniowania, zgromadzone przez ostatnie lata, w szczególności z lat 2004-2007, kiedy było ono w minimum swojej aktywności, zostały wykorzystane w symulacji komputerowej z wykorzystaniem najnowszego modelu procesów zachodzących w słońcu oraz modelu ziemskiej atmosfery. Symulacja oddziaływania słońca na ziemską temperaturę i klimat pokazała rzecz z pozoru zaskakującą - nasza gwiazda najbardziej ogrzewa naszą planetę podczas najmniejszej aktywności. Mimo pozornej sprzeczności wynik zgadza się z tym, co nam wiadomo o zachowaniu słońca podczas jego cyklu aktywności. Sekret zaskakującego wyniku kryje się w tym, że efekt ogrzewający zawdzięczamy przede wszystkim promieniowaniu w zakresie widzialnym, zaś najwięcej światła słońce daje, kiedy jest spokojne. Podczas zwiększonej aktywności, mimo ogólnie większego promieniowania, daje ono mniej światła. Odkrycie z pewnością wymusi pewne przemodelowanie różnych modeli klimatycznych i przewartościowanie wyliczeń. Skoro bowiem podczas spokojniejszego okresu słońca obserwowaliśmy przyrost temperatury, to mniejszą „winę" za to muszą ponosić inne czynniki - działalność człowieka i naturalne procesy klimatyczne. Autorzy studium zastrzegają, że nie można jednak wysuwać jeszcze jednoznacznych wniosków. Przede wszystkim odpowiednie badania Słońca (tutaj wykorzystano dane gromadzone przez satelitę SORCE) prowadzone są od niedawna. Nie można być więc pewnym, że zaobserwowany rozkład siły promieniowania o różnych długościach jest zjawiskiem normalnym, a nie anomalią.
  8. Przez miliardy lat przez naszą Ziemię przewinęła się nieprzeliczona ilość różnorodnych stworzeń. Choć ciągle odkrywamy nowe skamieniałości, wciąż mamy pojęcie o skromnym ułamku wymarłych gatunków i wciąż coś nas zaskakuje. Brytyjscy naukowcy z Imperial College w Londynie odkryli zadziwiające morskie stworzenie przypominające „bloba", czyli po naszemu kleksa. Dzięki żmudnym badaniom odtworzyli jego wizerunek w trójwymiarze. Drakozoon - bo tak nazwano ten prymitywny gatunek - żył w przybliżeniu 425 milionów lat temu w oceanie. Nie był wielki, zaledwie około trzech milimetrów długości, miał kształt zbliżony do szyszki i rodzaj kaptura, liczne nitkowate macki służyły mu do polowania i zakotwiczania się. Najprawdopodobniej przyczepiał się do skał lub innego trwałego podłoża, w przypadku niebezpieczeństwa chował się pod własnym kapturem. Gdy polował, odrzucał go a swoimi mackami chwytał niewielkie żyjątka lub drobiny organicznej materii. Uczeni sądzą, że posiadał dość grubą skórę. Być może on lub jego ewolucyjny przodek składał się z segmentów podobnie do gąsienicy - skamieniałość posiadała bowiem osiem przewężeń, które mogły oddzielać segmenty jego ciała. Nie znano podobnego organizmu wcześniej. Takie skamieniałości to rzadkość, bowiem miękkie tkanki rzadko dobrze się zachowują. Tę skamieniałość odkryto kilka lat temu w Herefordshire Lagerstätte, gdzie znajduje się wiele pozostałości miękkotkankowych organizmów, zachowanych w wulkanicznym pyle. Odnaleziony okaz pocięto na 200 plasterków, które sfotografowano i poddano komputerowej obróbce, uzyskując trójwymiarową rekonstrukcję. Drakozoon był wg naukowców wczesnym przedstawicielem bezkręgowców z rodzaju lofoforowców (bezkręgowców posiadających aparat czułkowy służący do filtrowania pokarmu oraz oddychania), podobnie jak bardziej znane ramienionogi (Brachiopoda). Jak uważa doktor Mark Sutton z Wydziału Nauk o Ziemi i Inżynierii, odkrycie to kolejny krok w poznaniu ewolucji gatunków, zaś trójwymiarowa rekonstrukcja pozwoli prześledzić jak zmieniała się budowa wczesnych, ziemskich organizmów. Na stronie londyńskiego Imperial College można zobaczyć trójwymiarową animację z Drakozoonem.
  9. Rozpoczynają się szeroko zakrojone badania dotyczące wpływu telefonów komórkowych na zdrowie. Potrwają one przez 20 lat i weźmie w nich udział 250 000 osób z pięciu krajów. Operatorzy tacy jak Vodafone czy O2 już zgodzili się zaproponować w nich udział przypadkowym osobom w wieku 18-69 lat. Twórcy badań chcą sprawdzić, czy wykorzystywanie komórek ma jakiś wpływ na rozwój nowotworów, demencji, chorób Alzheimera i Parkinsona, schorzeń serca, depresji czy bezsenności. Raport omawiający ryzyko nowotworów powinien pojawić się po około 10 latach badań. Dotychczas nie znaleziono żadnych dowodów jednoznacznie przesądzających o szkodliwości wykorzystywania telefonów komórkowych. Dlatego też coraz więcej naukowców mówi o konieczności przeprowadzenia badań długoterminowych. Warunek ten ma spełnić wspomniany powyżej program Cosmos (the cohort study on mobile communications). Wciąż bowiem nie wiemy, czy w czasie liczonym w dziesiątkach lat telefony komórkowe są bezpieczne. Specjalistów martwi też ewentualny wpływ tych urządzeń na rozwój nowotworów u najmłodszych. W wielu rozwiniętych krajach świata liczba telefonów komórkowych jest równa lub większa od liczby mieszkańców. Jednocześnie wielki wzrost miał miejsce w ciągu ostatnich lat, a to zbyt krótki czas by - o ile telefony są szkodliwe - rozwinęły się nowotwory. Wiele z nich daje pierwsze objawy dopiero po 10-20 latach rozwoju. Badania będą prowadzone w Wielkiej Brytanii, Holandii, Szwecji, Finlandii i Danii. Na czele zespołu naukowego stanął Paul Elliott z Imperial College London. Do uczonych będą docierały informacje, jak intensywnie dana osoba używa telefonu komórkowego do prowadzenia rozmów, wysyłania SMS-ów i surfowania po Sieci. Dane te będą porównywanie z wynikami badań lekarskich osób objętych badaniami.
  10. Studenci z Imperial College London stworzyli urządzenie, dzięki któremu w klasyczną grę Pong grają bez użycia rąk. Przebieg gry jest kontrolowany za pomocą ruchów oczu. Dzięki temu niepełnosprawni zyskali możliwość zapoznania się z jedną z pierwszych gier komputerowych. Zbudowane przez studentów urządzenie składa się z okularów zawierających źródło światła podczerwonego oraz kamery rejestrującej ruchy gałek ocznych. Kamera podłączona jest do laptopa, na którym specjalne oprogramowanie synchronizuje ruchy oczu z grą. Pong jest bardzo prostą grą, jednak twórcy nowego urządzenia mają nadzieję, że uda im się udoskonalić je tak, żeby było przydatne do bardziej skomplikowanych zastosowań. Jedną z największych zalet nowej konstrukcji są jej niewielkie koszty. Całość została zbudowana z ogólnodotępnych podzespołów i kosztowała około 25 funtów.
  11. Geny potrafią rozpoznawać na odległość inne podobne do siebie pod względem chemicznym geny, w dodatku w procesie tym nie pośredniczą białka ani inne biozwiązki (Journal of Physical Chemistry B). Opisywana zdolność pozwala wyjaśnić, w jaki sposób podobne geny odnajdują się i grupują, by rozpocząć rekombinację homologiczną, zwaną też uprawnioną. Polega ona na wymianie analogicznych funkcjonalnie i podobnych fizycznie fragmentów DNA (mogą to być całe geny lub tylko ich fragmenty). Oznacza to, że taki typ rekombinacji zachodzi między dwoma cząsteczkami DNA w miejscu ich całkowitej lub częściowej komplementarności. Odbywa się to w ramach przygotowań do podziału komórkowego. Rekombinacja homologiczna spełnia ważną rolę w ewolucji i doborze naturalnym, dzięki niej organizm może też naprawiać uszkodzenia DNA. Do tej pory naukowcy nie wiedzieli jednak, w jaki sposób odnajdywane są odpowiadające sobie pary genów. Badacze z Imperial College London przeprowadzili serię eksperymentów, w której zamierzali sfalsyfikować teorię stworzoną siedem lat temu przez dwóch członków zespołu. Zgodnie z nią, identyczne podwójne nici DNA odnajdują się wyłącznie na podstawie komplementarnych wzorców ładunków elektrycznych. Brytyjczycy chcieli sprawdzić, czy takie rozpoznanie jest możliwe w warunkach braku fizycznego kontaktu oraz pośrednictwa białek. Wcześniejsze badania wykazały, że białka są zaangażowane w proces identyfikacji jedynie w przypadku krótszych nici DNA (do 10 par komplementarnych zasad). Zachowanie DNA obserwowano w roztworze. Wcześniej kwas naznaczono "fluorescencyjnie", by było to łatwiejsze. Okazało się, że cząsteczki DNA z identycznym układem zasad zbierały się razem 2-krotnie częściej niż cząsteczki o innych sekwencjach. Odkrycie, że identyczne DNA wyszukują się w tłumie bez pomocy z zewnątrz, jest ekscytujące – cieszy się profesor Aleksiej Kornyszew. Naukowcy podkreślają, że zrozumienie etapu wstępnego rozpoznania pozwoli uniknąć błędów rekombinacyjnych. To ważne, bo uznaje się, że błędy te powodują szereg uwarunkowanych genetycznie chorób, np. nowotwory czy pewne postaci choroby Alzheimera, oraz przyczyniają się do starzenia.
  12. W Imperial College London powstało niewielkie bezprzewodowe urządzenie noszone za uchem, które zbiera dane biomechaniczne właściciela. Są one na bieżąco wysyłane do komputera, który je analizuje. W ten sposób trener może monitorować wydajność zawodnika, a lekarze sprawdzać dane pacjenta przechodzącego rekonwalescencję po operacjach czy przechodzących leczenie chorób neurdegeneracyjnych. Niewielkie urządzenie może trafić do masowej produkcji już w ciągu najbliższych 12-18 miesięcy. Peter Vint, technolog pracujący dla Komitetu Olimpijskiego Stanów Zjednoczonych, chwali wynalazek brytyjskich uczonych. Tym, co odróżnia go od innych czujników jest fakt, iż jest on bardzo mały i można go nosić w takim miejscu, które pozostaje stabilne u zawodników uprawiających sporty niekontaktowe. Czujnik mierzy pozycję ciała, długość i częstotliwość kroków oraz przyspieszenie. Świetnie sprawdzi się więc tam, gdzie potrzebne będą dokładne dane o sposobie poruszania się osoby: od sportów po wydziały ortopedyczne szpitali. Z kolei u pacjentów cierpiących na choroby neurodegeneracyjne czujnik może monitorować postępy choroby, badając zmiany w sposobie poruszania się pacjenta. Urządzenie było już testowane na pacjentach przechodzących rekonwalescencje po operacjach, a obecnie przechodzi testy wśród sportowców. W tej chwili zasięg jego łącza bezprzewodowego wynosi 10 metrów. Twórcy czujnika chcą zwiększyć ten zasięg oraz wyposażyć go w nowe funkcje, jak na przykład pomiar rytmu serca. W Sieci można obejrzeć film przedstawiający pracę czujnika.
×
×
  • Create New...