-
Similar Content
-
By KopalniaWiedzy.pl
Żelazo jest niezbędne do życia. Bierze udział w fotosyntezie, oddychaniu czy syntezie DNA. Autorzy niedawnych badań stwierdzili, że mogło być tym metalem, który umożliwił powstanie złożonych form życia. Dostępność żelaza jest czynnikiem decydującym, jak bujne życie jest w oceanach. Pył z Sahary nawozi Atlantyk żelazem. Badacze z USA i Wielkiej Brytanii zauważyli właśnie, że im dalej od Afryki, tym nawożenie jest skuteczniejsze.
Żelazo trafia do ekosystemów wodnych i lądowych z różnych źródeł. Jednym z najważniejszych jest jego transport z wiatrem. Jednak nie zawsze żelazo jest w formie bioaktywnej, czyli takiej, w której może być wykorzystane przez organizmy żywe.
Autorzy omawianych tutaj badań wykazali, że właściwości żelaza, które wraz z saharyjskim pyłem jest niesione z wiatrami na zachód, zmieniają się w czasie transportu. Im większa odległość, na jaką został zaniesiony pył, tym więcej w nim bioaktywnego żelaza. To wskazuje, że procesy chemiczne zachodzące w atmosferze zmieniają żelazo z forma mniej na bardziej przystępne dla organizmów żywych.
Doktor Jeremy Owens z Florida State University i jego koledzy zbadali pod kątem dostępności żelaza cztery rdzenie pobrane z dna Atlantyku. Wybrali je ze względu na odległość od tzw. Korytarza Pyłowego Sahara-Sahel. Rozciąga się on pomiędzy Czadem a Mauretanią i jest ważnym źródłem żelaza niesionego przez wiatry na zachód. Pierwszy rdzeń pochodził z odległości 200 km od północno-zachodnich wybrzeży Mauretanii, drugi został pobrany 500 km od wybrzeży, trzeci ze środka Atlantyku, a czwarty to materiał pochodzący z odległości około 500 km na wschód od Florydy. Naukowcy zbadali górne 60–200 metrów rdzeni, gdzie zgromadzone są osady z ostatnich 120 tysięcy lat, czyli z okresu od poprzedniego interglacjału.
Analizy wykazały, że im dalej od Afryki, tym niższy odsetek żelaza w osadach. To wskazuje, że większa jego część została pobrana przez organizmy żywe w kolumnie wody i żelazo nie trafiło do osadów. Sądzimy, że pył, który dociera do Amazonii czy na Bahamy zawiera żelazo szczególnie przydatne dla organizmów żywych.[...] Nasze badania potwierdzają, że pył zawierający żelazo może mieć duży wpływ na rozwój życia na obszarach znacznie odległych od jego źródła, mówi doktor Timothy Lyons z Uniwersytetu Kalifornijskiego w Riverside.
« powrót do artykułu -
By KopalniaWiedzy.pl
Wszystkie organizmy żywe wykorzystują metale w czasie podstawowych funkcji życiowych, od oddychania po transkrypcję DNA. Już najwcześniejsze organizmy jednokomórkowe korzystały z metali, a metale znajdziemy w niemal połowie enzymów. Często są to metale przejściowe. Naukowcy z University of Michigan, California Institute of Technology oraz University of California, Los Angeles, twierdzą, że żelazo było tym metalem przejściowym, który umożliwił powstanie życia.
Wysunęliśmy radykalną hipotezę – żelazo było pierwszym i jedynym metalem przejściowym wykorzystywanym przez organizmy żywe. Naszym zdaniem życie oparło się na tych metalach, z którymi mogło wchodzić w interakcje. Obfitość żelaza w pierwotnych oceanach sprawiła, że inne metale przejściowe były praktycznie niewidoczne dla życia, mówi Jena Johnson z University of Michigan.
Johnson połączyła siły z profesor Joan valentine z UCLA i Tedem Presentem z Caltechu. Profesor Valentine od dawna bada, jakie metale wchodziły w skład enzymów u wczesnych form życia, umożliwiając im przeprowadzanie niezbędnych procesów życiowych. Od innych badaczy wielokrotnie słyszała, że przez połowę historii Ziemi oceany były pełne żelaza. W mojej specjalizacji, biochemii i biochemii nieorganicznej, w medycynie i w procesach życiowych, żelazo jest pierwiastkiem śladowym. Gdy oni mi powiedzieli, że kiedyś nie było pierwiastkiem śladowym, dało mi to do myślenia, mówi uczona.
Naukowcy postanowili więc sprawdzić, jak ta obfitość żelaza w przeszłości mogła wpłynąć na rozwój życia. Ted Present stworzył model, który pozwolił na sprecyzowanie szacunków dotyczących koncentracji różnych metali w ziemskich oceanach w czasach, gdy rozpoczynało się życie. Najbardziej dramatyczną zmianą, jaka zaszła podczas katastrofy tlenowej, nie była zmiana koncentracji innych metali, a gwałtowny spadek koncentracji żelaza rozpuszczonego w wodzie. Nikt dotychczas nie badał dokładnie, jaki miało to wpływ na życie, stwierdza uczona.
Badacze postanowili więc sprawdzić, jak przed katastrofą tlenową biomolekuły mogły korzystać z metali. Okazało się, że żelazo spełniało właściwie każdą niezbędną rolę. Ich zdaniem zdaniem, ewolucja może korzystać na interakcjach pomiędzy jonami metali a związkami organicznymi tylko wówczas, gdy do interakcji takich dochodzi odpowiednio często. Obliczyli maksymalną koncentrację jonów metali w dawnym oceanie i stwierdzili, że ilość jonów innych biologiczne istotnych metali była o całe rzędy wielkości mniejsza nią ilość jonów żelaza. I o ile interakcje z innymi metalami w pewnych okolicznościach mogły zapewniać ewolucyjne korzyści, to - ich zdaniem - prymitywne organizmy mogły korzystać wyłącznie z Fe(II) w celu zapewnienia sobie niezbędnych funkcji spełnianych przez metale przejściowe.
Valentine i Johnson chciały sprawdzić, czy żelazo może spełniać w organizmach żywych te funkcje, które obecnie spełniają inne metale. W tym celu przejrzały literaturę specjalistyczną i stwierdziły, że o ile obecnie życie korzysta z innych metali przejściowych, jak cynk, to nie jest to jedyny metal, który może zostać do tych funkcji wykorzystany. Przykład cynku i żelaza jest naprawdę znaczący, gdyż obecnie cynk jest niezbędny do istnienia życia. Pomysł życia bez cynku był dla mnie trudny do przyjęcia do czasu, aż przekopałyśmy się przez literaturę i zdałyśmy sobie sprawę, że gdy nie ma tlenu, który utleniłby Fe(II) do Fe(III) żelazo często lepiej spełnia swoją rolę w enzymach niż cynk, mówi Valentine. Dopiero po katastrofie tlenowej, gdy żelazo zostało utlenione i nie było tak łatwo biologicznie dostępne, życie musiało znaleźć inne metale, które wykorzystało w enzymach.
Zdaniem badaczy, życie w sytuacji powszechnej dostępności żelaza korzystało wyłącznie z niego, nie pojawiła się potrzeba ewolucji w kierunku korzystania w innych metali. Dopiero katastrofa tlenowa, która dramatycznie ograniczyła ilość dostępnego żelaza, wymusiła ewolucję. Organizmy żywe, by przetrwać, musiały zacząć korzystać z innych metali. Dzięki temu pojawiły się nowe funkcje, które doprowadziły do znanej nam dzisiaj różnorodności organizmów żywych.
« powrót do artykułu -
By KopalniaWiedzy.pl
Chińscy naukowcy dali nam kolejny powód, by pozostawiać niezgrabione liście w spokoju. Rośliny do przeprowadzania fotosyntezy potrzebują jonów tlenku żelaza na drugim stopniu utlenienia (Fe2+). Jednak większość żelaza w glebie stanowią jony na trzecim stopniu utlenienia (Fe3+). Uczeni ze Wschodniochińskiego Uniwersytetu Nauki i Technologii w Szanghalu odkryli, że żelazo zawarte w opadłych liściach pomaga uzupełnić te niedobory, zamieniając Fe3+ w Fe2+ za pomocą transferu elektronów.
Rośliny w sposób naturalny zamieniają Fe3+ w Fe2+ za pomocą reakcji redukcji, w której biorą udział molekuły znajdujące się w korzeniach. Mimo to, nadal mogą cierpieć na niedobory Fe2+. Ma to poważne konsekwencje dla rolnictwa. Przez brak Fe2+ rośliny gorzej przeprowadzają fotosyntezę, dochodzi do zaburzeń w wytwarzaniu chlorofilu (chlorozy) w młodych liściach oraz słabego wzrostu korzeni, co prowadzi do zmniejszenia plonów, mówi Shanshang Liang, jeden z członków zespołu badawczego.
Stosowane standardowo w rolnictwie nawozy nieorganiczne, jak FeSO4 nie są zbyt wydajne, gdyż dostarczane wraz z nimi jony Fe2+ szybko zmieniają się w Fe3+. Z kolei lepiej spełniające swoją rolę nawozy organiczne, jak chelaty żelaza, są drogie. Można, oczywiście, zmodyfikować rośliny genetycznie tak, by bardziej efektywnie czerpały Fe2+, jednak to wyzwanie zarówno naukowe, ponadto rośliny GMO wciąż budzą kontrowersje. Tymczasem wystarczy pozostawić szczątki roślin, by zapewnić dostarczenie do gleby składników zapewniających rozwój kolejnych pokoleń roślin.
Chiński zespół już podczas poprzednich badań zauważył, że żelazo zmienia swoją wartościowość podczas biochemicznych reakcji polegających na transferze elektronów. Proces taki zachodzi pomiędzy Fe3+ a pewnymi enzymami w korzeniach roślin. Teraz naukowcy wykorzystali rentgenowską spektrometrię fotoelektronów, spektroskopię fourierowską w podczerwieni oraz spektroskopię UV-VIS do obserwacji zamiany Fe3+ w Fe2+ w liściach herbaty, zimokwiatu wczesnego i innych roślin.
Nasza praca pozwala zrozumieć, skąd się bierze Fe2+ w glebie oraz w jaki sposób – za pomocą opadłych liści – dochodzi do zamiany Fe3+ w Fe2+. To bardzo wydajny proces, dodaje Shanshang Liang.
Naukowcy zauważyli też, że wydajność całego procesu oraz równowaga pomiędzy jonami Fe2+ a Fe3+ mogą silnie zależeć od temperatury otoczenia. Dlatego też planują przeprowadzić badania w tym kierunku. Stwierdzili też, że kwasowość gleby ma istotny wpływ na wchłanianie Fe2+ przez rośliny. Jesteśmy też zainteresowani tym, w jaki sposób opadłe liście poprawiają jakość gleby. To może doprowadzić do opracowania nowych strategii produkcji rolnej, stwierdzają naukowcy.
« powrót do artykułu -
By KopalniaWiedzy.pl
Szybką i bezbłędną klasyfikację białek, wykrywanie w nich miejsc wiążących potencjalne leki, identyfikowanie białek występujących na powierzchni wirusów, a także badania np. RNA, umożliwia nowe narzędzie bioinformatyczne opracowane przez naukowców z Wydziału Biologii UW.
BioS2Net, czyli Biological Sequence and Structure Network, jest zaawansowanym algorytmem wykorzystującym uczenie maszynowe, pozwalającym na klasyfikację nowo poznanych białek nie tylko na podstawie podobieństwa sekwencji aminokwasowych, ale także ich struktury przestrzennej. Publikacja na jego temat ukazała się na łamach pisma International Journal of Molecular Sciences.
Narzędzie opracował zespół kierowany przez dr. Takao Ishikawę z Zakładu Biologii Molekularnej Wydziału Biologii UW we współpracy z naukowcem z Wydziału Matematyki, Informatyki i Mechaniki UW. Jak mówią sami autorzy, jego głównym zastosowaniem jest usprawniona klasyfikacja białek, ponieważ obecnie stosowany system klasyfikacji strukturalnej opiera się na żmudnej pracy polegającej na porównywaniu struktur nowych białek do tych już skategoryzowanych.
Istnieje co prawda jego zautomatyzowany odpowiednik, jednak jest on bardzo restrykcyjny i bierze pod uwagę wyłącznie podobieństwo sekwencji białek, całkowicie pomijając ich strukturę. Takie narzędzie jak BioS2Net potencjalnie ma szansę znacząco usprawnić cały proces – wyjaśnia dr Ishikawa. Dodatkowo opracowana przez nas architektura może zostać użyta (po niewielkich przeróbkach) do innych zadań, niekoniecznie związanych z klasyfikacją. Przykładowo można by jej użyć do wykrywania w białku miejsc wiążących potencjalne leki lub do identyfikacji białek występujących na powierzchni wirusów.
Można sobie np. wyobrazić sytuację, w której dotychczas zaklasyfikowane do innych grup białka, dzięki zastosowaniu BioS2Net zostaną skategoryzowane jako bardzo podobne do siebie pod względem budowy powierzchni, mimo innego zwinięcia łańcucha białkowego wewnątrz struktury. I wówczas niewykluczone, że cząsteczka oddziałująca z jednym białkiem (np. jako lek) okaże się także skutecznym interaktorem dla drugiego – wymienia dalsze potencjalne zastosowania praktyczne narzędzia dr Ishikawa. Innym ciekawym zastosowaniem mogłoby być np. wykrywanie miejsc wiążących w białkach, które mogą stanowić albo cel dla leków, albo punkt interakcji z białkiem wirusowym.
Działanie BioS2Net opiera się na wykonywanych po sobie operacjach matematycznych, które bazują na danych o konkretnym białku. Do pracy narzędzie potrzebuje tychże danych (im więcej, tym lepiej), odpowiedniego oprogramowania zdolnego do wykonywania skomplikowanych obliczeń związanych z treningiem sieci neuronowej oraz sporej ilości czasu.
W efekcie BioS2Net tworzy unikatową reprezentację każdego białka w postaci wektora o stałym rozmiarze. Można to porównać do czegoś w rodzaju kodu kreskowego opisującego każde z poznanych białek – tłumaczy dr Ishikawa. Narzędzie świetnie nadaje się do klasyfikacji białek na podstawie sekwencji aminokwasowej oraz struktury przestrzennej. Szczególnie istotne jest to, że można dzięki niemu wykryć białka o podobnej strukturze trójwymiarowej, ale o odmiennym „foldzie”, czyli innym sposobie zwinięcia łańcucha białkowego.
Dotychczas stosowane metody przydzielałyby takie białka do osobnych grup. Tymczasem znane są przypadki, gdy tego typu cząsteczki pełnią podobne funkcje. I do wykrywania takich grup białek może się przydać BioS2Net – dodaje.
Jak mówi naukowiec, nowe białka odkrywa się cały czas. Zdecydowana większość z nich, jeśli już ma opisaną strukturę przestrzenną, jest deponowana w bazie danych Protein Data Bank, do której każdy ma dostęp przez Internet. Warto jednak zwrócić uwagę, że proces odkrywania nowych białek rozpoczyna się o wiele wcześniej, już na etapie sekwencjonowania genomu. W bazach danych genomów często można spotkać się z adnotacją ’hypothetical protein’ (pol. hipotetyczne białko). Istnieją algorytmy komputerowe, które na podstawie sekwencji nukleotydowych w zsekwencjonowanym genomie przewidują obszary przypominające geny, które potencjalnie kodują informację o białkach. I takich potencjalnych białek znamy bardzo wiele. Ich funkcje można częściowo przewidzieć na podstawie podobieństwa do cząsteczek już wcześniej opisanych, ale do pełnego poznania takiej roli i mechanizmu działania często jednak należy najpierw ustalić ich strukturę, co wymaga miesięcy lub lat eksperymentów – opowiada badacz z UW.
W przypadku białek podobna sekwencja aminokwasów z reguły przekłada się na podobną strukturę. Do niedawna był to wręcz dogmat w biologii strukturalnej. Dzisiaj jednak wiadomo – mówi dr Ishikawa – że wiele białek jest inherentnie nieustrukturyzowanych (IDP; ang. intrinsically disordered protein) albo przynajmniej zwiera w sobie tego typu rejony. Takie białka mogą przyjmować różne struktury w zależności od tego z jakimi innymi białkami w danym momencie oddziałują.
Dodatkowo bardzo istotny jest cały kontekst, w jakim białko ulega pofałdowaniu. Przykładowo, obecność tzw. białek opiekuńczych, czy nawet samo tempo syntetyzowania białka w komórce, może mieć niemały wpływ na ostateczny jego kształt, a zatem też na funkcje. Nie zmienia to jednak faktu, że cechą fundamentalną każdego białka jest jego sekwencja aminokwasowa – podkreśla.
A dlaczego w ogóle poznanie dokładnej budowy cząsteczki białka jest takie ważne? Autor publikacji wyjaśnia, że białka, realizując swoje zadania w komórce, zawsze przyjmują określoną strukturę. Np. jeśli chcemy zaprojektować nowy lek, który będzie oddziaływał z określonym białkiem, to fundamentalne znaczenie ma określenie struktury tego drugiego. W trakcie pandemii SARS-CoV-2 trzeba było np. określić strukturę wirusowego białka S (tzw. kolca) m.in. po to, aby można było zaproponować cząsteczkę swoiście z nim oddziałującą, a przez to zmniejszyć wydajność zakażania komórek człowieka – mówi. Podsumowując: badanie struktury białek ma ogromne znaczenie dla poznania ich funkcji i mechanizmu działania, a także innych cząsteczek z nimi oddziałujących.
Jeśli chodzi o sam BioS2Net, to najpierw należy ściągnąć z bazy danych i przetworzyć informacje o danym białku. Przetwarzanie służy temu, aby wszystkie cechy białka, takie jak współrzędne atomów, rodzaje aminokwasów, profil ewolucyjny itd., zamienić na liczby, które będą zrozumiałe dla komputera. Każdy pojedynczy atom cząsteczki jest opisywany przez kilkadziesiąt liczb, które wyrażają wspomniane cechy.
Następnie liczby te wprowadza się do sieci neuronowej, która analizuje każdy z atomów oraz ich najbliższych sąsiadów, biorąc pod uwagę zarówno ich ułożenie przestrzenne, jak i sekwencyjne. Kolejny etap to łączenie grup atomów w jeden „superatom”, który zawiera w sobie całą wyuczoną lokalną informację. Proces ten powtarza się do momentu aż ów „superatom” będzie zawierał zagregowane informacje o całym białku. To jest nasz kod kreskowy, który wykorzystujemy potem do klasyfikacji białka, używając standardowych sieci neuronowych – zaznacza dr Ishikawa.
Zapytany o dokładność nowego narzędzia biolog wyjaśnia, że jeśli chodzi o wytworzenie unikatowego wektora reprezentującego poszczególne białka, to BioS2Net robi to bezbłędnie, tzn. że każde białko jest reprezentowane w jedyny możliwy sposób i żadna inna cząsteczka nie będzie opisana w taki sam sposób.
Natomiast, gdy zastosowaliśmy BioS2Net do klasyfikacji białek, osiągnęliśmy wynik nawet 95,4 proc. trafności w porównaniu do obowiązującej klasyfikacji wg bazy danych. Oznacza to, że w ponad 95 przypadków na 100 BioS2Net był w stanie prawidłowo przyporządkować białko do danej grupy. Tutaj jednak warto wspomnieć, że ta obowiązująca klasyfikacja opiera się na podobieństwie sekwencji aminokwasowych i pomija informacje strukturalne – tłumaczy autor publikacji.
Naukowcy podkreślają, że poza głównym zastosowaniem, czyli klasyfikacją białek, BioS2Net będzie mógł służyć także do analizowania innych cząsteczek biologicznych, w tym RNA. Uważamy, że narzędzie można by też wykorzystywać do klasyfikacji zupełnie innych danych biologicznych, np. map chromosomów w jądrze komórkowym. Właściwie to nasza architektura może być przydatna wszędzie tam, gdzie jest zdefiniowana struktura i sekwencja – mówią.
Dr Ishikawa dodaje, że BioS2Net powstał w ramach pracy licencjackiej pierwszego autora (jego Alberta Roethla) wykonanej pod kierunkiem. Warto to podkreślić, bo to ważny sygnał, że licencjat niekoniecznie jest pracą dyplomową, którą po prostu trzeba zrobić, ale czymś, co ma potencjał naukowy i może zostać opublikowane w międzynarodowym czasopiśmie – zaznacza naukowiec.
« powrót do artykułu -
By KopalniaWiedzy.pl
Światowa Organizacja Zdrowia opublikowała długo oczekiwane szacunki dotyczące nadmiarowych zgonów w czasie pandemii COVID-19. Zdaniem WHO w ciągu dwóch lat pandemii dodatkowo zmarło około 15 milionów osób. To niemal 3-krotnie więcej niż oficjalna łączna liczba zgonów z powodu COVID-19 raportowana przez poszczególne kraje. Szacunkowe dane WHO uwzględniają te zgony, których nie zawarto w raportach krajowych.
Problem z uzyskaniem dokładnej liczby osób zmarłych z powodu pandemii wynika z faktu, że ponad 100 krajów albo w ogóle nie dostarcza wiarygodnych statystyk, albo też dostarcza je bardzo nieregularnie. Wiele krajowych systemów statystycznych zawiera też błędy, przekładające się na błędy w danych. Ponadto różne kraje w różny sposób zbierają informacje. Na przykłd na początku pandemii w Holandii w statystykach zgonów z powodu COVID-19 uwzględniano tylko osoby, które zmarły w szpitalach, a u których test na SARS-CoV-2 dał wynik pozytywny. Zaś w sąsiedniej Belgii uwzględniano każdy zgon po objawach choroby, nawet jeśli nie postawiono diagnozy.
Demografowie, statystycy, specjaliści ds. zdrowia publicznego i epidemiolodzy starają się więc zmniejszyć tę niepewność, opierając się nie tylko na raportach poszczególnych krajów, ale prowadząc też własne badania. Dane uściślane są w różny sposób, od analiz zdjęć satelitarnych cmentarzy, poprzez ankiety wśród ludności po wykorzystywanie komputerowych modeli maszynowego uczenia.
Wpływ pandemii na nasze zdrowie jest znacznie szerszy niż tylko zachorowania na COVID-19 i zgony. Poza zgonami, które można bezpośrednio przypisać infekcji SARS-CoV-2 mamy też dużą liczbę zgonów spowodowanych warunkami, jakie panowały podczas pandemii. Mowa tutaj zarówno o przeładowaniu systemów opieki zdrowotnej, które w mniejszym stopniu zajmowały się innymi chorobami, jak i zachowaniu samych pacjentów, którzy zaczęli unikać placówek służby zdrowia. Nadmiarowe zgony to, według WHO, zgony ponad to, czego można by się spodziewać w danej populacji w standardowych warunkach, nie objętych kryzysem.
Specjaliści WHO musieli uwzględnić nie tylko czynniki, które prowadziły do zwiększenia liczby zgonów – jak np. przeładowanie systemów opieki zdrowotnej – ale i takie, prowadzące do jej zmniejszenia. W czasie pandemii poprawiła się jakość powietrza, zmniejszył ruch drogowy, a z powodu narzucenia obowiązku noszenia maseczek zmniejszyła się zachorowalność na wiele chorób zakaźnych.
Nasze szacunki nie tylko wskazują na wpływ pandemii, ale pokazują również, że wszystkie kraje powinny więcej zainwestować w służbę zdrowia odporną na zakłócenia w czasie kryzysów, powiedział dyrektor generalny WHO Tedros Adhanom Ghebreyesus.
WHO szacuje, że w latach 2020-2021 z powodu pandemii zmarło 14,9 miliona osób. Aż 84% zgonów miało miejsce w Azji Południowo-Wschodniej, Europie i Amerykach, a za ponad 2/3 odpowiada zaledwie 10 krajów.
Z opublikowanych danych wynika, że w Polsce liczba nieuwzględnionych w statystykach zgonów z powodu COVID-19 za lata 2020–2021 wynosi od 74 883 do 82 069. Średnio jest to 78 665 osób. Zatem w tym czasie pandemia mogła zabić w naszym kraju nie 116 000, a około 195 000 osób.
Zdaniem WHO do największej liczby nadmiarowych zgonów doszło w Indiach. Z szacunków wynika, że zmarło tam od 3,3 do 6,5 miliona osób. Tymczasem oficjalne dane indyjskiego rządu mówią o 481 000 zmarłych. W reakcji na te informacje przedstawiciele rządu Indii stwierdzili, że metodologia WHO budzi ich zastrzeżenia. Jednak Shahid Jameel, wirusolog i były szef indyjskiego zespołu odpowiedzialnego za sekwencjonowanie genomu SARS-CoV-2 mówi, że bardziej wierzy WHO niż własnemu rządowi. Liczba około 500 000 zmarłych podawanych w oficjalnych statystykach rządowych jest z pewnością bardzo zaniżona. Ci, którzy byli w Indiach i widzieli przebieg pandemii wiedzą, że to zbyt niska liczba. A teraz mamy badania, które to potwierdzają.
« powrót do artykułu
-
-
Recently Browsing 0 members
No registered users viewing this page.