Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Możesz pomóc w znalezieniu leku przeciwko koronawirusowi SARS-CoV-2. Wystarczy komputer

Rekomendowane odpowiedzi

Przed paroma minutami u mnie skończyło. Na ile udało mi się zrozumieć logi, połknęli moje wyniki jako ok, ale w tym momencie nie mają następnej paczki. Być może wirus spowodował zwiększony ruch, na który nie byli przygotowani.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 godziny temu, Flaku napisał:

Ja tam uniwersytetowi Stanforda wierzę

To było pół-żartem,  ja też nie oczekuje że w tym przypadku ktoś miałby złe intencje.

Już bardziej bym podejrzewał akcję marketingową i PR żeby ludzie czuli się że biorą udział w czymś ważnym a zarazem zrobiło się głośno o uczelni. Za "komuny" były akcje czynu społecznego i ludki z łopatami coś tam w pocie czoła dłubali i nie chodziło o to żeby osiągnęli sukces w wyrównywaniu placu, bo przecież za rogiem stała fadroma która wyrównałaby teren lepiej i w minutę.

Tutaj może być podobnie, zysk netto może być słaby jeśli wogóle. Podzielenie tych paczek, następnie połączenie danych zabiera energię, po drodze routery,przełączniki, nieefektywne algorytmy żeby to poszło na x86. Stosunek wykonanej pracy do spalonego węgla raczej będzie lepszy w jednej maszynie do tego stworzonej

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Może i lepszy, ale skoro ludzie i tak mają włączone komputery, to węgiel się spala. Paczki są małe, więc aż takiej energii do przesyłu nie potrzeba. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
25 minut temu, Flaku napisał:

ale skoro ludzie i tak mają włączone komputery, to węgiel się spala

Procesor pobiera prądu proporcjonalnie do ilości obliczeń które wykonuje więc nie ma tutaj nic za darmo czy przy okazji.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jesteś pewny, że ta zależność jest proporcjonalna? Nie mam danych, z ciekawości pytam.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Flaku napisał:

ale skoro ludzie i tak mają włączone komputery, to węgiel się spala

Procesor pobiera prądu proporcjonalnie do ilości obliczeń które wykonuje więc nie ma tutaj nic za darmo czy przy okazji.

Kiedyś procki grzały nawet jak nic nie robiły, ale to dawne czasy. Obecnie pobór na jałowym biegu jest niewielki.

Przy okazji, też tak macie że na Android+Chrome w KW jak jest dużo wpisów w wątku to nie można przeskoczyć na 2 i dalszą stronę?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Procesor mało prądu pobiera, ale w zależności od charakteru obliczeń, może to nie być wydajne liczenie. Przykładowo licznie haszy, ale nie klepto-coinów(!), na kilkuletnim CPU Intela 75W, a GPU około 1000x szybciej przy poborze tylko 165W. Przykład z pamięci.

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, cyjanobakteria napisał:

Procesor mało prądu pobiera, ale w zależności od charakteru obliczeń, może to nie być wydajne liczenie. Przykładowo licznie haszy, ale nie klepto-coinów(!), na kilkuletnim CPU Intela 75W, a GPU około 1000x szybciej przy poborze tylko 165W. Przykład z pamięci.

Dlatego pisałem że na x86 pewnie słabo jest z wydajnością. Można z działki wywieźć 10T gruzu na wysypisko w partiach po 200kg w super oszczędnym sedanie. Ale chyba taniej,szybciej i bardziej eko jest na raz wywieźć to dużą ciężarówką spalającą 40L/100km

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 15.03.2020 o 18:19, tempik napisał:

Jesteście pewni że nie kopiecie komuś coinów? :)

Napisałem że Summit już to zrobił, a jak ktoś dobrze pokopie to znajdzie rejestrację w urzędzie patentowym z 2018r. patent na szczepionkę. Niespodzianka... patent złożyła fundacja takiego pana w okularach co zrobił w garażu taki fajny program ze szkła.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
12 godzin temu, ex nihilo napisał:

Przed paroma minutami u mnie skończyło. Na ile udało mi się zrozumieć logi, połknęli moje wyniki jako ok, ale w tym momencie nie mają następnej paczki. Być może wirus spowodował zwiększony ruch, na który nie byli przygotowani.

Tak jest. Od piątku czterokrotnie zwiększyła się liczba uczestników. Zabrakło paczek do liczenia. Dopiero dzisiaj się obudzili i dołożyli paczek.  

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Trudno się dziwić, że zabrakło, jak wbiłeś z sześcioma rdzeniami i pewnie z graficznej też coś dołożyłeś ;)
A już bardziej serio - do mnie się dobijali cały wieczór, ale bezskutecznie. Pewnie dlatego, że próbowałem zmusić do współpracy kompa, którego na szybko kupiłem coby mieć w rezerwie, gdyby mój grat padakę jakąś zaliczył (moi komputerowcy zamykają od jutra budę na co najmniej dwa tygodnie, a to zadupie), no i dysk latał ciągle w te i nazad między jednym pudłem a drugim. Komp używaniec, ale fajny, mocniejszy od mojego, tyle że - jak się okazało - nie chce gnojek z linuchem współpracować, nie udało mi się zgwałcić tego durnego UEFI, które tylko z windziorem pokracznym... Czyli gdyby mojego coś trafiło, będę musiał z tą windą się mordować (aućććććć!) - dziesiątką (legalną), co gorsze (że dziesiątka, a nie że legalna), która wywala się na co drugiej aktualizacji - aż budę komputerową otworzą.
Teraz zajrzałem do logów i widzę, że chyba mają pakiet, ale wrzuciłem pauzę, bo to nie ma sensu, jeśli mają nadmiar maszyn, i to mocniejszych od mojego grata. No i tyle wieści najnowszych.
 

9 godzin temu, tempik napisał:

Procesor pobiera prądu proporcjonalnie do ilości obliczeń które wykonuje więc nie ma tutaj nic za darmo czy przy okazji.

Na pewno żre trochę więcej, ale licz też monitor. U mnie np. wygląda to tak, że w zimie komp chodzi 12-16/24/7, z tego >>90% na ćwiartce wydajności i mniej, a monitor duży dosyć. Kiedy 1/2 mocy dałem na te obliczenia, temperatura procka trochę się zwiększyła (mam stały podgląd), ale nie na tyle nawet, żeby zmusić wentylator do szybszych obrotów. Czyli zusammen do kupki, licząc to w całości, jest to w praktyce zaniedbywalne, tym bardziej, że tej tej energii nie tracę, bo grzeje mi chałupę :D
 

6 godzin temu, tempik napisał:

Można z działki wywieźć 10T gruzu na wysypisko w partiach po 200kg w super oszczędnym sedanie. Ale chyba taniej,szybciej i bardziej eko jest na raz wywieźć to dużą ciężarówką spalającą 40L/100km

Może i tak, ale popatrz na ten wykres https://pl.wikipedia.org/wiki/Folding@home:
400px-Folding@home_and_Supercomputer_Com

Porównanie mocy obliczeniowej projektu Folding@home i największych superkomputerów świata. Między czerwcem 2007 a czerwcem 2011, Folding@home (niebieska i czerwona linia) przewyższał mocą obliczeniową lidera rankingu TOP500 (zielona linia). Został prześcignięty przez K computer w czerwcu 2011.

Zobacz ile czasu by to superkompom zajęło i ile prądu zeżarło. A superkompy to nie tylko duży koszt i kolejka, ale też mała elastyczność. Przy obliczeniach rozproszonych można wszystko zmieniać praktycznie w czasie rzeczywistym, jak np. teraz, z tym wirusem. Do superkompów pakujesz wsad i czekasz na wynik, i tyle.
A do zabawy w to nikt nikogo nie zmusza.
 
Tutaj podobny projekt, są tam podane szczegóły obliczeń (co, jak i po co):
https://pl.wikipedia.org/wiki/Rosetta@home

PS - [Uniw. Waszyngt.] – Z przyjemnością informujemy [Uniw. Waszyngt.], że pakiet modelowania molekularnego Rosetta został niedawno użyty do dokładnego przewidywania struktury w skali atomowej ważnego białka koronawirusa na kilka tygodni przed pomiarem w laboratorium. Wiedza zdobyta podczas badania tego białka wirusowego jest obecnie wykorzystywana do kierowania projektowaniem nowych szczepionek i leków przeciwwirusowych – napisał na stronie internetowej Instytute for Protein Design, należący do tej uczelni.

Echch, nie wykasowałem tego [Uniw. Waszyngt.], a po doklejeniu nie da się edytować.  

Edytowane przez ex nihilo

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 17.03.2020 o 03:00, ex nihilo napisał:

ale fajny, mocniejszy od mojego, tyle że - jak się okazało - nie chce gnojek z linuchem współpracować, nie udało mi się zgwałcić tego durnego UEFI, które tylko z windziorem pokracznym...

a o co konkretnie chodzi? nowe dystrybucje powinny latać na włączonym secure boot, a jak nie to wyłącz i po problemie. a jak koniecznie potrzebujesz go to możesz jeszcze zainstalować np. Shim bootloader który będzie odpalał GRUBa.

W dniu 17.03.2020 o 03:00, ex nihilo napisał:

Zobacz ile czasu by to superkompom zajęło i ile prądu zeżarło

wiadomo, efekt skali, który działa też na skalę nieefektywności energetycznej...

W dniu 17.03.2020 o 03:00, ex nihilo napisał:

A superkompy to nie tylko duży koszt i kolejka, ale też mała elastyczność

elastyczność jest dobra jak teraz chce się zagrać w strzelankę 3D, a za chwilę obejrzeć film na netflixie. Jak ma się konkretne zadanie do zrobienia to elastyczność jest wręcz wadą i stratą zasobów. Dlatego elastyczny SUV zawsze w terenie przegra z terenówką, na asfalcie zawsze przegra ze sportowym coupe, przewożąc 2 taczki gnoju na polu przegra z pickupem. 

 

W dniu 17.03.2020 o 03:00, ex nihilo napisał:

Folding@home (niebieska i czerwona linia) przewyższał mocą obliczeniową lidera rankingu TOP500 (zielona linia)

te teoretyczne FLOPSy to nie wszystko. zapewniam Cię że z moimi "para" zdolnościami mogę napisać kalkulator w java który będzie potrzebował więcej mocy żeby płynnie działał :D

Elastyczne algorytmy i heterogenny hardware wymagają dużo więcej taktów zegara żeby zrobić to samo co skrojony na miarę zadania algorytm zapuszczony na sprzęcie na którym nie da się odpalić fortnite.

 

 

 

W dniu 17.03.2020 o 03:00, ex nihilo napisał:

będę musiał z tą windą się mordować

no i przez twoje UEFI chyba wróciłem do mojego Archa.... Od 2 lat na desktopie nie odpalałem linuxa bo WIN10 świetnie u mnie działa a mam na nim wszystko co potrzebuję(tak jak i w Arch). Jednak po włączeniu mimo że mielą się aktualizacje z 2 lat to dobitnie poczułem że jestem najwolniejszym ogniwem w tym tandemie. Mój komputer staruszek normalnie zerwał się ze smyczy i kagańca. chyba za długo jednak na tym windowsie siedziałem.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Myślę, że jeszcze jedna zaleta obliczeń rozproszonych nad superkomputerami nie została wspomniana. W obliczeniach rozproszonych infrastruktura jest. Komputery osobiste istnieją i są gotowe do obliczeń. Superkomputery zazwyczaj nie mają wolnych mocy obliczeniowych. Aby rozwiązać jakiś problem, trzeba albo zbudować nowy komputer, albo zrezygnować z rozwiązywania innych obliczeń, zaplanowanych dla obecnie istniejących superkomputerów. Przy takim ujęciu nie jest aż tak istotne gdzie obliczenia są bardziej wydajne. Jeśli problemy są rozwiązywane przez zarówno obliczenia rozproszone jak i superkomputery, to w tym samym czasie rozwiążemy ich więcej niż przy pomocy samych superkomputerów.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, Flaku napisał:

Przy takim ujęciu nie jest aż tak istotne gdzie obliczenia są bardziej wydajne.

Tak. Dla właścicieli projektu nie jest istotne ile twój komp ma FLOPS per wat. Ty płacisz rachunek nie oni. Przetwarzanie rozproszone to super sprawa a w szczególności skalowalność, ale są też duże wady i ograniczenia.

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chodziło mi o to, że energia nie jest jedynym kosztem. Sam sprzęt też kosztuje.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Flaku napisał:

Chodziło mi o to, że energia nie jest jedynym kosztem. Sam sprzęt też kosztuje.

Niby tak, ale komputer to nie opona. Zużywa się dość powoli czego dowodzą działające do dzisiaj C64 i inne takie. Sam mam blaszaka dziesięcioletniego, a ex nihilo jeszcze starszego. Dawno zamortyzowane ;)

Pozostaje kwestia MFLOPS/Watt, może powinniśmy wywalić starocie. 

Edytowane przez Jajcenty

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie chodzi o zużycie, a o koszt, który trzeba ponieść aby zwiększyć moc obliczeniową. Można zbudować nowy superkomputer. A można też zaprząc do pracy istniejące pecety, które zużyją więcej energii, ale których nie trzeba budować, bo już są.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 godzin temu, Jajcenty napisał:

Pozostaje kwestia MFLOPS/Watt, może powinniśmy wywalić starocie. 

Jedno jest pewne - moc zasilaczy przeciętnych domowych piecyków rośnie wolniej niż wydajność :D
Ale parametry takie jak MFLOPS/Watt i im podobne to nie wszystko. zacytuję z Wiki:
"Performance per watt also typically does not include full life-cycle costs. Since computer manufacturing is energy intensive, and computers often have a relatively short lifespan, energy and materials involved in production, distribution, disposal and recycling often make up significant portions of their cost, energy use, and environmental impact.
Energy required for climate control of the computer's surroundings is often not counted in the wattage calculation, but it can be significant."

https://en.wikipedia.org/wiki/Performance_per_watt
Do tego trzeba by dodać jeszcze "enviromental impact" wynikający z zarabiania na nowy sprzęt.
Czyli?
Pewnie jeśli ktoś żyłuje sprzęt do oporu, lepiej kiedy staroć wywali... Ja ją kupię :D
Od kilkunastu lat, od kiedy przestałem zawodowo zajmować się grafiką komputerową, DTP i podobnymi sprawamin nie muszę mieć gratów w okolicach topu, W miarę przyzwoity sprzęt sprzed ok. 10 lat całkowicie mi wystarcza, i to z nadmiarem (nie gram). Od tego czasu nowe kupuję tylko myszy i inne takie, a bardziej starocie zmieniam na mniej starocie co jakieś 5 lat, kiedy bardziej stara staroć mi padnie albo nie wyrabia się z tymi wszystkimi zamulaczami, które są wpieprzane na internetowe strony.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

:D Teraz DTP, a nawet obróbka fotek, to - technicznie - zabawa dla dzieciaków z przeciętnymi smarkfonami. Gdzieś do okolic 2000 trzeba było mieć mocny sprzęt i równie mocne nerwy. A w czasach 386, kiedy te zabawy zaczynałem, był to hardkor, tylko dla psychopatycznych twardzieli.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, Astro napisał:

Zazdrościłem "bogaczom" ZX Spektrum.

Teraz każdy nosi w kieszeni urządzenie wielokrotnie potężniejsze (smartphone) i nie dające się użyć do takich rzeczy jak programowanie...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Cóż, widocznie mój też jest zbyt kiepski ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Dzieci i młodzież w wieku 10-19 lat, u których zdiagnozowano COVID-19 są narażone na większe ryzyko rozwoju cukrzycy typu 2. w ciągu 6 miesięcy po diagnozie, niż ich rówieśnicy, którzy zapadli na inne choroby układu oddechowego. Takie wnioski płyną z badań przeprowadzonych przez naukowców z Wydziału Medycyny Case Western Reserve University. Uczeni przeprowadzili metaanalizę wpływu COVID-19 na ryzyko rozwoju cukrzycy typu 2. u dorosłych, a następnie postanowili poszerzyć swoją wiedzę o wpływ infekcji na osoby młodsze.
      Badacze przeanalizowali przypadki 613 602 pacjentów pediatrycznych. Dokładnie połowę – 306 801 – stanowiły osoby, u których zdiagnozowano COVID-19, w drugiej grupie znaleźli się młodzi ludzie, którzy zachorowali na inne choroby układu oddechowego. Poza tym obie grupy były do siebie podobne. Dodatkowo utworzono też dwie podgrupy po 16 469 pacjentów, w których znalazły się osoby z otyłością oraz COVID-19 lub inną chorobą układu oddechowego.
      Naukowcy porównali następnie liczbę nowo zdiagnozowanych przypadków cukrzycy typu 2. w obu grupach. Pod uwagę brano diagnozy, które postawiono miesiąc, trzy miesiące i sześć miesięcy po wykryciu pierwszej z chorób. Okazało się, że ryzyko rozwoju cukrzycy u osób, które zachorowały na COVID-19 było znacznie wyższe. Po 1 miesiącu było ono większe o 55%, po trzech miesiącach o 48%, a po pół roku – o 58%. Jeszcze większe było u osób otyłych. W przypadku dzieci i nastolatków, które były otyłe i zapadły na COVID-19 ryzyko zachorowania na cukrzycę było o 107% wyższe po 1 miesiącu, o 100% wyższe po drugim i o 127% wyższe po pół roku. Największe jednak niebezpieczeństwo związane z rozwojem cukrzycy wisiało nad tymi, którzy z powodu COVID-19 byli hospitalizowani. Ryzyko to było większe – odpowiednio do czasu po diagnozie COVID-19 – o 210%, 174% i 162%.
      Obecnie nie wiadomo, jaki może być związek COVID-19 z cukrzycą. Tym bardziej, że przeprowadzone badania to analiza retrospektywna, która nie pozwala na wykazanie związku przyczynowo-skutkowego. Potrzeba więc dalszych badań, które pozwolą określić, czy zachorowanie na COVID-19 w jakikolwiek sposób wpływa na układy związane z działaniem glukozy czy insuliny w naszym organizmie.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Tegoroczną Nagrodę Nobla w dziedzinie fizjologii lub medycyny otrzymali Katalin Karikó i Drew Weissmann za odkrycia, które umożliwiły opracowanie efektywnych szczepionek mRNA przeciwko COVID-19. W uzasadnieniu przyznania nagrody czytamy, że prace Karikó i Wiessmanna w olbrzymim stopniu zmieniły rozumienie, w jaki sposób mRNA wchodzi w interakcje na naszym układem odpornościowym". Tym samym laureaci przyczynili się do bezprecedensowo szybkiego tempa rozwoju szczepionek, w czasie trwania jednego z największych zagrożeń dla ludzkiego życia w czasach współczesnych.
      Już w latach 80. opracowano metodę wytwarzania mRNA w kulturach komórkowych. Jednak nie potrafiono wykorzystać takiego mRNA w celach terapeutycznych. Było ono nie tylko niestabilne i nie wiedziano, w jaki sposób dostarczyć je do organizmu biorcy, ale również zwiększało ono stan zapalny. Węgierska biochemik, Katalin Karikó, pracowała nad użyciem mRNA w celach terapeutycznych już od początku lat 90, gdy była profesorem na University of Pennsylvania. Tam poznała immunologa Drew Weissmana, którego interesowały komórki dendrytyczne i ich rola w układzie odpornościowym.
      Efektem współpracy obojga naukowców było spostrzeżenie, że komórki dendrytyczne rozpoznają uzyskane in vitro mRNA jako obcą substancję, co prowadzi co ich aktywowania i unicestwienia mRNA. Uczeni zaczęli zastanawiać się, dlaczego do takie aktywacji prowadzi mRNA transkrybowane in vitro, ale już nie mRNA z komórek ssaków. Uznali, że pomiędzy oboma typami mRNA muszą istnieć jakieś ważne różnice, na które reagują komórki dendrytyczne. Naukowcy wiedzieli, że RNA w komórkach ssaków jest często zmieniane chemicznie, podczas gdy proces taki nie zachodzi podczas transkrypcji in vitro. Zaczęli więc tworzyć różne odmiany mRNA i sprawdzali, jak reagują nań komórki dendrytyczne.
      W końcu udało się stworzyć takie cząsteczki mRNA, które były stabilne, a po wprowadzeniu do organizmu nie wywoływały reakcji zapalnej. Przełomowa praca na ten temat ukazała się w 2005 roku. Później Karikó i Weissmann opublikowali w 2008 i 2010 roku wyniki swoich kolejnych badań, w których wykazali, że odpowiednio zmodyfikowane mRNA znacząco zwiększa produkcję protein. W ten sposób wyeliminowali główne przeszkody, które uniemożliwiały wykorzystanie mRNA w praktyce klinicznej.
      Dzięki temu mRNA zainteresowały się firmy farmaceutyczne, które zaczęły pracować nad użyciem mRNA w szczepionkach przeciwko wirusom Zika i MERS-CoV. Gdy więc wybuchła pandemia COVID-19 możliwe stało się, dzięki odkryciom Karikó i Weissmanna, oraz trwającym od lat pracom, rekordowo szybkie stworzenie szczepionek.
      Dzięki temu odkryciu udało się skrócić proces, dzięki czemu szczepionkę podajemy tylko jako stosunkowo krótką cząsteczkę mRNA i cały trik polegał na tym, aby ta cząsteczka była cząsteczką stabilną. Normalnie mRNA jest cząsteczką dość niestabilną i trudno byłoby wyprodukować na ich podstawie taką ilość białka, która zdążyłaby wywołać reakcję immunologiczną w organizmie. Ta Nagroda Nobla jest m.in. za to, że udało się te cząsteczki mRNA ustabilizować, podać do organizmu i wywołują one odpowiedź immunologiczną, uodparniają nas na na wirusa, być może w przyszłości bakterie, mogą mieć zastosowanie w leczeniu nowotworów, powiedziała Rzeczpospolitej profesor Katarzyna Tońska z Uniwersytetu Warszawskiego.
      Myślę, że przed nami jest drukowanie szczepionek, czyli dosłownie przesyłanie sekwencji z jakiegoś ośrodka, który na bieżąco śledzi zagrożenia i na całym świecie produkcja już tego samego dnia i w ciągu kilku dni czy tygodni gotowe preparaty dla wszystkich. To jest przełom. Chcę podkreślić, że odkrycie noblistów zeszło się z możliwości technologicznymi pozwalającymi mRNA sekwencjonować szybko, tanio i dobrze. Bez tego odkrycie byłoby zawieszone w próżni, dodał profesor Rafał Płoski z Warszawskiego Uniwersytetu Medycznego.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dżuma trapi ludzkość od 5000 lat. W tym czasie wywołująca ją Yersinia pestis ulegała wielokrotnym zmianom, zyskując i tracąc geny. Około 1500 lat temu, niedługo przed jedną z największych pandemii – dżumą Justyniana – Y. pestis stała się bardziej niebezpieczna. Teraz dowiadujemy się, że ostatnio bakteria dodatkowo zyskała na zjadliwości. Pomiędzy wielkimi pandemiami średniowiecza, a pandemią, która w XIX i XX wieku zabiła około 15 milionów ludzi, Y. pestis została wzbogacona o nowy niebezpieczny element genetyczny.
      Naukowcy z Uniwersytetu Chrystiana Albrechta w Kilonii i Instytutu Biologii Ewolucyjnej im. Maxa Plancka przeanalizowali genom Y. pestis od neolitu po czasy współczesne. Mieli dostęp m.in. do szkieletów 42 osób, które zostały pochowane pomiędzy XI a XVI wiekiem na dwóch duńskich cmentarzach parafialnych.
      Wcześniejsze badania pokazały, że na początkowych etapach ewolucji patogen nie posiadał genów potrzebnych do efektywnej transmisji za pośrednictwem pcheł. Taka transmisja jest typowa dla współczesnej dżumy dymieniczej. W wyniku ewolucji Y. pestis znacząco zwiększyła swoją wirulencję, co przyczyniło się do wybuchu jednych z najbardziej śmiercionośnych pandemii w historii ludzkości, mówi doktor Joanna Bonczarowska z Instytutu Klinicznej Biologii Molekularnej na Uniwersytecie w Kilonii. Podczas naszych badań wykazaliśmy, że przed XIX wiekiem żaden ze znanych szczepów Y. pestis nie posiadał elementu genetycznego znanego jako profag YpfΦ, dodaje uczona. Profag, jest to nieczynna postać bakteriofaga, fragment DNA wirusa, który został włączony do materiału genetycznego zaatakowanej przez niego bakterii.
      Te szczepy Y. pestis, które mają w swoim materiale genetycznym YpfΦ, są znacznie bardziej śmiercionośne, niż szczepy bez tego profaga. Nie można więc wykluczyć, że to jego obecność przyczyniła się do wysokiej śmiertelności podczas pandemii z XIX/XX wieku.
      Naukowcy z Kilonii chcieli szczegółowo poznać mechanizm zwiększonej wirulencji Y. pestis z profagiem YpfΦ. W tym celu przyjrzeli się wszystkim białkom kodowanym przez tę bakterię. Okazało się, że jedno z nich jest bardzo podobne do toksyn znanych z innych patogenów.
      Struktura tego białka jest podobna do enterotoksyny wytwarzanej przez Vibrio cholerae (ZOT - zonula occludens toxin), która ułatwia wymianę szkodliwych substancji pomiędzy zainfekowanymi komórkami i uszkadza błonę śluzową oraz nabłonek, dodaje Bonczarowska. Uczona wraz z zespołem będą w najbliższym czasie badali wspomniane białko, gdyż jego obecność prawdopodobnie wyjaśnia zjadliwość współczesnych szczepów Y. pestis.
      Badacze zwracają uwagę, że szybka ewolucja patogenu zwiększa ryzyko pandemii. Nabywanie nowych elementów genetycznych może spowodować, że pojawią się nowe objawy. To zaś może prowadzić do problemów z postawieniem diagnozy i opóźnienia właściwego leczenia, które jest kluczowe dla przeżycia. Co więcej, niektóre szczepy Y. pestis już wykazują oporność na różne antybiotyki, co dodatkowo zwiększa zagrożenie, stwierdza doktor Daniel Unterweger, który stał na czele grupy badawczej. Naukowcy przypominają, że u innych bakterii również odkryto elementy podobne do YpfΦ, co może wskazywać na ich zwiększoną wirulencję.
      Zrozumienie, w jaki sposób patogen zwiększał swoją szkodliwość w przeszłości, a czasem robił to skokowo, pomoże nam w wykrywaniu nowych jego odmian i w zapobieganiu przyszłym pandemiom, wyjaśnia cel badań profesor Ben Krause-Kyora z Instytutu Klinicznej Biologii Molekularnej.
      Dżuma to wciąż jedna z najbardziej niebezpiecznych chorób. Śmiertelność w przypadku szybko nieleczonej choroby wynosi od 30% (dżuma dymienicza) do 100% (odmiana płucna). Obecnie najczęściej występuje w Demokratycznej Republice Konga, Peru i na Madagaskarze. Zdarzają się jednak zachorowania w krajach wysoko uprzemysłowionych. Na przykład w USA w 2020 roku zanotowano 9 zachorowań, z czego zmarły 2 osoby.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Sprzątacz wyłączył zamrażarkę w uczelnianym laboratorium, ponieważ zepsuty sprzęt wydawał drażniący dźwięk. W ten sposób zniszczył próbki i inne materiały, niwecząc przeszło dwie dekady badań. Rensselaer Polytechnic Institute w Troy domaga się od firmy, która go zatrudniła, ponad 1 mln dolarów. Kwota ta ma stanowić odszkodowanie i pokryć opłaty prawne.
      Uczelnia nie pozwała sprzątacza, ale zatrudniającą go firmę Daigle Cleaning Systems Inc., wskazując na niewłaściwe przeszkolenie i nadzorowanie personelu. Daigle Cleaning Systems Inc. świadczyła uczelni usługi przez kilka miesięcy 2020 roku (kontrakt opiewał na 1,4 mln dol.).
      Michael Ginsberg, prawnik reprezentujący Rensselaer Polytechnic Institute, podkreślił w wypowiedzi dla CNN-u, że zaistniała sytuacja jest skutkiem ludzkiego błędu. Kluczem do jej interpretacji jest fakt, że firma nie przeszkoliła odpowiednio swojego personelu. Sprzątacz nie powinien bowiem próbować rozwiązywać problemów elektrycznych.
      W zamrażarce znajdowały się m.in. hodowle komórkowe i próbki, w przypadku których, jak napisano w pozwie złożonym w Sądzie Najwyższym Hrabstwa Rensselaer, niewielkie wahania temperatury rzędu trzech stopni mogły wyrządzić katastrofalne szkody.
      Materiał przechowywany w zamrażarce wymagał zachowania temperatury -80°C. Prof. K.V. Lakshmi, dyrektorka Baruch '60 Center For Biochemical Solar Energy Research, stwierdziła, że alarm włączył się ok. 14 września 2020 r., bo temperatura wzrosła do -78°C. Zespół naukowców ustalił, że mimo to próbkom i kulturom nic się nie stało. Ponieważ przez ograniczenia pandemiczne naprawa mogła się rozpocząć dopiero po tygodniu, na drzwiczkach zamrażarki umieszczono ostrzegający napis: Urządzenie piszczy, bo znajduje się w naprawie. Proszę go nie przesuwać ani nie odłączać. Nie ma potrzeby sprzątania tego obszaru. Jeśli chcesz wyłączyć dźwięk, przez 5-10 s przyciśnij guzik wyciszania alarmu. Zamiast tego 17 września sprzątacz wyłączył obwód zasilający zamrażarkę.
      Nim naukowcy zorientowali się, co się stało, temperatura podniosła się aż o 50 stopni. Większość próbek uległa zniszczeniu. W raporcie sporządzonym przez uczelniany zespół ds. bezpieczeństwa publicznego napisano, że sprzątacz myślał, że włącza obwód zasilający, tymczasem w rzeczywistości było dokładnie na odwrót. Podczas rozmów z prawnikami nadal wydaje się przekonany, że nie zrobił nic złego i próbował po prostu pomóc.
      Badania nad fotosyntezą prowadzone przez prof. K.V. Lakshmi mogły być przełomowe dla dalszego rozwoju paneli słonecznych.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...