Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Neutrina miały inny wpływ na ewolucję wszechświata niż się wydawało?

Rekomendowane odpowiedzi

DESI (Dark Energy Spectroscopis Instrument) tworzy największą i najdokładniejszą trójwymiarową mapę wszechświata. W ten sposób zapewnia kosmologom narzędzia do poznania masy neutrin w skali absolutnej. Naukowcy wykorzystują w tym celu dane o barionowych oscylacjach akustycznych – czyli wahaniach w gęstości widzialnej materii – dostarczanych przez DESI oraz informacje z mikrofalowego promieniowania tła, wypełniającym wszechświat jednorodnym promieniowaniu, które pozostało po Wielkim Wybuchu.

Neutrina to jedne z najbardziej rozpowszechnionych cząstek subatomowych. W trakcie ewolucji wszechświata wpłynęły one na wielkie struktury, takie jak gromady galaktyk. Jedną z przyczyn, dla których naukowcy chcą poznać masę neturino jest lepsze zrozumienie procesu gromadzenia się materii w struktury.

Kosmolodzy od dawna sądzą, że masywne neutrina hamują proces „zlepiania się” materii. Innymi słowy uważają, że gdyby nie oddziaływanie tych neutrin, materia po niemal 14 miliardach lat ewolucji wszechświata byłaby zlepiona ze sobą w większym stopniu.

Jednak wbrew spodziewanym dowodom wskazującym na hamowanie procesu gromadzenia się materii, uzyskaliśmy dane wskazujące, że neutrina wspomagają ten proces. Albo mamy tutaj do czynienia z jakimś błędem w pomiarach, albo musimy poszukać wyjaśnienia na gruncie zjawisk, których nie opisuje Model Standardowy i kosmologia, mówi współautor badań, Joel Meyers z Southern Methodist University. Model Standardowy to najlepsza i wielokrotnie sprawdzona teoria budowy wszechświata.

Dlatego też Meyers, który prowadził badania we współpracy z kolegami w Uniwersytetu Kalifornijskiego w Santa Barbara i San Diego oraz Uniwersytetu Johnsa Hopkinsa stwierdza, że jeśli uzyskane właśnie wyniki się potwierdzą, możemy mieć do czynienia z podobnym problemem, jak ten, dotyczący tempa rozszerzania się wszechświata. Tam solidne, wielokrotnie sprawdzone, metody pomiarowe dają różne wyniki i wciąż nie udało się rozstrzygnąć tego paradoksu.


« powrót do artykułu
  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

O widzę, że ktoś tam jeszcze kuma czaczę, że stałe kosmologiczne nie są stałe. Nie wiem co im daje ta analiza dla ujemnej masy neutrin. Tego WMAP to nie dało się ustalić dla lat z planka ? To powinno pozostawać w korelacji.  Piszą też o chłodzeniu i związanym z tym spadkiem masy. No ogólnie jak by się znali na tym co robią :) 

Edytowane przez l_smolinski

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Neutrina - jako znacznie słabiej reagujące - rozprzęgły się z materią barionową znacznie wcześniej niż fotony, to ich oczekiwana dzisiejsza temperatura wynosi jedynie 1,9K. A ponieważ są cząstkami masywnymi, to ich energia kinetyczna musi odpowiadać tej temperaturze 1,9K - czyli poruszają się bardzo powoli. Dodatkowo zaś są fermionami podlegającymi statystyce Fermiego-Diraca, więc ich fale kwantowe muszą chyba zajmować całkiem spory obszar wyłącznego wykluczenia. Ciekawym byłoby przeczytać jakąś pracę naukową modelującą taki obłok neutrinowy o temperaturze 1,9K w centrum i wyższych temperaturach na zewnątrz wraz z jego pozostałymi parametrami, także z uwzględnieniem efektów OTW i rotacji układów odniesienia...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No właśnie nie do końca.
Neutrina różnią się mocno od innych fermionów. Brak oddziaływania EM. Brak chiralności. 

Wszystkie naładowane fermiony powinny spełniać ale z neutrinami nie wiadomo bo nie są naładowane :)

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Teleskop Webba dostarczył wielu wyjątkowych informacji, które pozwalają lepiej zrozumieć wszechświat. Były wśród nich i takie, które spowodowały, że zaczęto mówić o kryzysie w kosmologii i konieczności rewizji modeli. Jak bowiem stwierdzono, we wczesnym wszechświecie istniały galaktyki znacznie bardziej masywne, niż wynika to z obecnie stosowanych modeli. Tak masywne galaktyki nie powinny pojawić się tak krótko po Wielkim Wybuchu. Autorzy najnowszej pracy twierdzą jednak, że – przynajmniej niektóre z nich – są znacznie mniej masywne, niż się wydawało.
      Autorką najnowszych badań jest Katherine Chworowsky i jej zespół z University of Texas w Austin. Jak zauważyli badacze, galaktyki położone dalej, a więc starsze, wciąż były mniejsze od tych, położonych bliżej. Wszystko się więc zgadzało. To była wskazówka, że warto przyjrzeć się bliżej temu zjawisku.
      Naukowcy wykonali więc szczegółową analizę danych z Webba zebranych w ramach projektu Cosmic Evolution Early Release Science (CEERS) i znaleźli w nich sygnały świadczące o istnieniu szybko przemieszczającego się wodoru. Wszystko więc wskazuje na to, że galaktyki, które wydają się zbyt masywne, jak na swój wiek, zawierają czarne dziury, które w bardzo szybkim tempie wchłaniają otaczający je gaz. Ten szybko poruszający się gaz emituje tak dużo światła, że wydaje się, iż galaktyki zawierają znacznie więcej gwiazd, niż w rzeczywistości. A więc, że są znacznie bardziej masywne. Gdy badacze usunęli te „podejrzane” galaktyki z analizy, okazało się, ze cała reszta starych galaktyk mieści się w ramach przewidzianych obecnymi modelami. Tak więc standardowy model kosmologiczny nie przeżywa kryzysu. Za każdym razem, gdy mamy teorię, która tak długo wytrzymała próbę czasu, potrzebujemy przytłaczających dowodów, by ją obalić. A tak nie jest w tym przypadku, mówi profesor Steven Finkelstein, którego badania w ramach projektu CEERS dostarczyły dowodów wykorzystanych przez zespół Chworowsky.
      O ile więc naukowcom udało się rozwiązać główny problem dotyczący zbyt dużej masy galaktyk we wczesnym wszechświecie, nierozwiązana pozostała jeszcze jedna zagadka. W danych Webba widzimy bowiem niemal dwukrotnie więcej masywnych starych galaktyk, niż wynika to z modelu kosmologicznego. Może we wczesnym wszechświecie galaktyki bardziej efektywnie zmieniały gaz w gwiazdy, zastanawia się Chworowsky.
      Gwiazdy powstają, gdy gaz schłodzi się na tyle, że zapada się pod wpływem grawitacji. Dochodzi wówczas do jego kondensacji w gwiazdę. Jednak w miarę kurczenia się obłoku gazu, jego temperatura wzrasta i pojawia się ciśnienie skierowane na zewnątrz. W naszym kosmicznym sąsiedztwie istnieje równowaga obu tych sił - skierowanego do wewnątrz ciśnienia chłodnego gazu i skierowanego na zewnątrz ciśnienia zapadającej się gwiazdy, przez co gwiazdy tworzą się bardzo powoli. Być może jednak we wczesnym wszechświecie, który był bardziej gęsty od obecnego, ciśnienie skierowane na zewnątrz napotykało większy opór, więc gwiazdy tworzyły się szybciej.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W 1929 roku Edwin Hubble odkrył, że najbardziej odległe galaktyki oddalają się od Ziemi szybciej, niż galaktyki pobliskie. Tym samym dowiedzieliśmy się, że wszechświat się rozszerza. Jednak tempo jego rozszerzania stanowi jedną z najważniejszych zagadek kosmologicznych. Spór w tej kwestii trwa od dziesięcioleci. Naukowcy, korzystający z różnych, solidnych i wielokrotnie sprawdzonych, metod pomiaru otrzymują dwa różne wyniki. Być może jednak pogodzą ich nowe badania, których autorzy – wykorzystując Teleskop Webba – zmierzyli tempo ucieczki 10 pobliskich galaktyk i uzyskali nową wartość rozszerzania się wszechświata.
      Tempo rozszerzania się wszechświata – stała Hubble'a – mierzone jest dwiema głównymi metodami. Jedna z nich to pomiar promieniowania mikrofalowego tła, czyli światła, które pozostało z Wielkiego Wybuchu. Badanie tą metodą pokazuje, że wszechświat rozszerza się w tempie 67,4 km/s/Mpc (kilometra na sekundę na megaparsek). Druga metoda wykorzystuje do pomiaru świece standardowe, obiekty o znanej jasności. Im są dalej, tym słabsze dociera z nich światło, co pozwala na pomiary odległości i prędkości oddalania się. Pomiary tą metodą dają wynik 74 km/s/Mpc. Oba wyniki na tyle się różnią, że skłoniły naukowców do przypuszczeń, iż standardowy model kosmologiczny – Lambda-CDM – może wymagać zmiany. Zwraca się uwagę, że jedna z tych metod bada mikrofalowe promieniowanie tła, zatem najwcześniejsze ślady wszechświata, a druga współczesne galaktyki, może więc w międzyczasie doszło do jakiejś istotnej zmiany, której Lambda-CDM nie uwzględnia.
      Zagadnieniu temu przyjrzała się kosmolog Wendy Freedman z University of Chicago, która specjalizuje się w badaniu tempa rozszerzania wszechświata metodą świec standardowych. Wraz ze swoim zespołem wykorzystała Teleskop Webba do przyjrzenia się 10 pobliskim galaktykom. Naukowcy wykorzystali przy tym trzy różne metody badawcze, które posłużyły im do wzajemnego sprawdzania uzyskanych wyników. W pierwszej z nich do pomiarów użyli cefeid, niezwykle jasnych gwiazd, które regularnie pulsują, zmieniając swoją jasność. Drugą z metod była TRGB (tip of the red giant branch - wierzchołek gałęzi czerwonych olbrzymów), która wykorzystuje fakt, że gwiazdy o niskiej masie osiągają pewną maksymalną jasność. W ostatniej metodzie, JAGB (J-Region Asymptotic Giant Branch), wykorzystano gwiazdy węglowe, których jasność i kolor są stałe w bliskiej podczerwieni. To pierwsze prace, w czasie których użyto wszystkich tych trzech metod do zbadania tych samych galaktyk.
      Wszystkie trzy metody, po uwzględnieniu marginesu błędu, dały wartość bliższą wartości uzyskiwanej z badania mikrofalowego promieniowania tła. Odległości mierzone metodami TRGB i JAGB zgadzały się z dokładnością do 1%, ale różniły się od odległości z cefeid o 2,5–4 procent. Średnia wartość stałej Hubble'a uzyskana z tych dwóch pierwszych metod wynosi 69,03+/-1,75 km/s/Mpc, czytamy w artykule udostępnionym na łamach arXiv. Również dane z pomiarów cefeid są zbliżone do tych wartości i mieszczą się w marginesach błędu.
      Pomiary dokonane przez uczonych z Chicago mogą wskazywać, że nie potrzebujemy poprawek do modelu kosmologicznego, a różnica w uzyskiwanych dotychczas wynikach to skutek błędów systematycznych.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wyjątkowa baza 2400 stanowisk archeologicznych obejmujących dzieje człowieka od 3 milionów lat temu do 20 000 lat temu obejmuje ponad 100 starych kultur i opisuje wyniki 150 lat prac archeologicznych. Jest ona dziełem naukowców z centrum badawczego ROCEEH (The Role of Culture in Early Expansions of Humans), którzy skompilowali olbrzymią liczbę informacji i umieścili je w jednej ogólnodostępnej bazie danych.
      ROAD (ROCEEH Out of Africa Database) to jeden z największych zbiorów danych dotyczących archeologii, antropologii, paleontologii i botaniki, wyjaśnia doktor Andrew Kandel z Uniwersytetu w Tybindze. W sposób jednorodny pod względem geograficznym i chronologicznym połączono informacje o zabytkach kultury, szczątkach człowieka i jego przodkach, pozostałościach zwierząt i roślin. W ten sposób powstało narzędzie, które pomaga w analizie wielu różnych aspektów ewolucji człowieka.
      Baza ROAD to wynik 15 lat pracy naukowców, którzy przeanalizowali ponad 5000 publikacji w wielu językach, w tym w angielskim, chińskim, francuskim, włoskim czy portugalskim. Powstała w ten sposób łatwa w użyciu interaktywna mapa stanowisk archeologicznych. Użytkownik może na jej podstawie tworzyć też własne mapy obejmujące konkretne kultury, obszary geograficzne czy okresy historyczne.
      Naukowcy mogą zadawać ROAD zaawansowane zapytania, dzięki którym sprawdzą na przykład, obecność konkretnej kategorii kamiennych narzędzi w Afryce czy dystrybucję konkretnych gatunków zwierząt w interesujących ich okresach, jak chociażby podczas wycofywania się lądolodu. Takie zapytania dostarczą naukowcom olbrzymiej ilości danych, które później mogą wykorzystać do dalszej pracy za pomocą zaawansowanych metod wizualizacji czy analizy, mówi Kandel.
      Baza pokazuje tez, że znaczna część naszej wiedzy pochodzi z bardzo niewielu dobrze przebadanych regionów, jak Afryka Południowa i Wschodnia, Europa czy Azja Centralna i Wschodnia. Większa część obszarów planety to archeologiczna biała plama. Badanie tych obszarów może przynieść w przyszłości niezwykle ekscytujące odkrycia.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Po 10 latach pionierskiej pracy naukowcy z amerykańskiego SLAC National Accelerator Laboratory ukończyli wykrywacze ciemnej materii SuperCDMS. Dwa pierwsze trafiły niedawno do SNOLAB w Ontario w Kanadzie. Będą one sercem systemu poszukującego dość lekkich cząstek ciemnej materii. Urządzenia mają rejestrować cząstki o masach od 1/2 do 10-krotności masy protonu. W tym zakresie będzie to najbardziej czuły na świecie wykrywacz ciemnej materii.
      Twórcy detektorów mówią, że przy ich budowie wiele się nauczyli i stworzyli wiele interesujących technologii, w tym elastyczne kable nadprzewodzące, elektronikę działającą w ekstremalnie niskich temperaturach czy lepiej izolowane systemy kriogeniczne, dzięki czemu całość jest znacznie bardziej czuła na ciemną materię. A dodatkową zaletą całego eksperymentu jest jego umiejscowienie 2 kilometry pod ziemią, co pozwoli na wyeliminowanie znaczniej części zakłóceń ze strony promieniowania kosmicznego. SNOLAB i SuperCDMS są dla siebie stworzone. Jesteśmy niesamowicie podekscytowani faktem, że detektory SuperCDMS mają potencjał, by bezpośrednio zarejestrować cząstki ciemnej materii i znacząco zwiększyć nasza wiedzę o naturze wszechświata, mówi Jodi Cooley, dyrektor SNOLAB. Zrozumienie ciemnej materii to jedno z najważniejszych zadań nauki, dodaje JoAnne Hewett ze SLAC.
      Wiemy, że materia widzialna stanowi zaledwie 15% wszechświata. Cała reszta to ciemna materia. Jednak nikt nie wie, czym ona jest. Wiemy, że istnieje, gdyż widzimy jej oddziaływanie grawitacyjne z materią widzialną. Jednak poza tym nie potrafimy jej wykryć.
      Eksperyment SuperCDMS SNOLAB to próba zarejestrowania cząstek tworzących ciemną materię. Naukowcy chcą w nim wykorzystać schłodzone do bardzo niskich temperatur kryształy krzemu i germanu. Stąd zresztą nazwa eksperymentu – Cryogenic Dark Matter Search (CDMS). Uczeni mają nadzieję, że w temperaturze o ułamek stopnia wyższej od zera absolutnego uda się zarejestrować wibracje kryształów powodowane interakcją z cząstkami ciemnej materii. Takie kolizje powinny zresztą wygenerować pary elektron-dziura, które – przemieszczając się w krysztale – wywołają kolejne wibracje, wzmacniając w ten sposób sygnał.
      Żeby jednak tego dokonać, detektory muszą zostać odizolowane od wpływu czynników zewnętrznych. Dlatego też eksperyment będzie prowadzony w SNOLAB, laboratorium znajdującym się w byłej kopalni niklu, ponad 2000 metrów pod ziemią.
      Stopień trudności w przeprowadzeniu tego typu eksperymentów jest olbrzymi. Nie tylko bowiem konieczne było stworzenie nowatorskich wykrywaczy, co wymagało – jak już wspomnieliśmy – 10 lat pracy. Wyzwaniem był też... transport urządzeń. Aby chronić je przed promieniowaniem kosmicznym, należało jak najszybciej dostarczy je z USA do Kanady. Oczywiście na myśl przychodzi przede wszystkim transport lotniczy. Jednak im wyżej się wzniesiemy, tym cieńsza warstwa atmosfery nas chroni, zatem tym więcej promieniowania kosmicznego do nas dociera.
      Wybrano więc drogę lądową, ale... naokoło. Pomiędzy Menlo Park w Kalifornii, gdzie powstały wykrywacze, a kanadyjską prowincją Ontario znajdują się Góry Skaliste. Ciężarówka z wykrywaczami musiałaby więc wjechać na sporą wysokość nad poziomem morza, co wiązałoby się z większym promieniowaniem docierającym do detektorów. Dlatego też jej trasa wiodła na południe, przez Teksas. Już następnego dnia po dotarciu do Ontario urządzenia zostały opuszczone pod ziemię, gdzie czekają na instalację. Jeszcze w bieżącym roku do Kanady trafią kolejne SuperCDMS, a wstępne przygotowania do uruchomiania laboratorium mają zakończyć się w 2024 roku. Naukowcy mówią, że po 3-4 latach pracy laboratorium powinno zebrać na tyle dużo danych, że zdobędziemy nowe informacje na temat ciemnej materii.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Motyle – zarówno te dzienne jaki i nocne, czyli ćmy – to jeden z najbardziej rozpowszechnionych rzędów owadów. Ćmy pojawiły się około 300 milionów lat temu. W 2019 roku dowiedzieliśmy się, że przed około 100 milionami lat grupa nocnych motyli zaczęła latać za dnia, by korzystać z bogatych w nektar kwiatów. Tym samym udowodniono, że nieprawdziwa jest hipoteza, jakoby motyle dzienne pojawiły się już po zagładzie dinozaurów, by uniknąć polujący na ćmy nietoperzy. Dotychczas jednak sądzono, że motyle dzienne po raz pierwszy wyewoluowały w Azji. Teraz okazuje się, że to nieprawda.
      Akito Kawahara, kurator zbiorów motyli we Florida Museum of Natural History, i jego zespół przeprowadzili analizy genetyczne niemal 2300 gatunków motyli reprezentujących wszystkie rodziny i 92% rodzajów z rzędu Lepidoptera. Stworzyli największe na świecie drzewo genealogiczne motyli i dowiedli, że motyle dzienne po raz pierwszy wzbiły się do lotu w Ameryce Północnej i Środkowej. Żywiły się wówczas roślinami z rodziny bobowatych.
      To było moje marzenie z dzieciństwa. To coś, co chciałem zrobić od czasu pierwszej wizyty w Amerykańskim Muzeum Historii Naturalnej gdy byłem dzieckiem i gdy na drzwiach biura kuratora zobaczyłem drzewo genealogiczne motyli. To jednocześnie najtrudniejsze badania naukowe, w jakich brałem udział. Wymagały one wielkiego wysiłku ze strony ludzi na całym świecie, cieszy się Kawahara.
      Obecnie istnieje około 19 000 gatunków motyli dziennych. Zrekonstruowanie ich historii na przestrzeni 100 milionów lat było trudnym zadaniem. Wymagało zebrania danych o miejscach występowania poszczególnych gatunków motyli oraz roślin, z których korzystają. Dane takie nie były jednak przechowywane w jednym miejscu, znaczna ich część nie była zdigitalizowana, konieczne było przeszukiwanie publicznie dostępnych baz danych, poszukiwanie książek oraz artykułów naukowych, tłumaczenie ich z różnych języków, przeglądanie zbiorów muzealnych i innych miejsc, w których znajdowały się użyteczne informacje o motylach.
      Naukowcy przeanalizowali też 11 niezwykle rzadkich skamieniałości motyli, które wykorzystali do kalibracji swojego drzewa genetycznego. Dzięki temu dowiedzieli się np. że motyle dzienne bardzo szybko się różnicowały, jedne grupy pokonywały w toku ewolucji olbrzymie odległości, inne zaś pozostawały w miejscu, mimo, że wokół nich swój bieg zmieniały rzeki, pojawiały się i znikały pasma górskie, przemieszczały się kontynenty.
      Dzięki olbrzymiej pracy naukowców wiemy, że motyle dzienne pojawiły się po raz pierwszy gdzieś w Ameryce Środkowej i zachodnich częściach Ameryki Północnej. W tym czasie Ameryka Północna była przedzielona szerokim morzem, a Ameryka Północna i Południowa nie były jeszcze połączone. Mimo to motyle były w stanie pokonywać wielkie przestrzenie nad wodami i podbijały świat. Nie zawsze leciały najkrótszą drogą. Mimo że wówczas Ameryka Południowa i Afryka znajdowały się dość blisko siebie, motyle najpierw przeleciały do Azji, na Bliski Wschód i do Afryki Wschodniej. Dotarły nawet do Indii, które wówczas były wyspą. Największym ich wyczynem było zaś dotarcie do Australii, połączonej wówczas z Antarktyką. Oba kontynenty były ostatnią pozostałością Pangei. Nie można wykluczyć, że motyle żyły przez pewien czas w Antarktyce.
      A przed około 45 milionami lat zjawiły się w Europie. Nie wiadomo, dlaczego zajęło im to tak dużo czasu, ale skutki tej późnej migracji widać do dzisiaj. W Europie, w porównaniu z innymi kontynentami, nie ma zbyt wielu gatunków motyli. A te które są, często występują w innych częściach świata, na przykład na Syberii i w Azji, mówi Kawhara.
      Gdy już motyle zasiedlały jakiś obszar, szybko się różnicowały w zależności od występujących na nim roślin. Gdy z Ziemi zniknęły dinozaury, istniały już niemal wszystkie współczesne rodziny motyli, a każda z nich była w sposób szczególny powiązana z konkretnymi roślinami.
      Gdy naukowcy porównali historię ewolucyjną motyli oraz roślin, na których żerują, stwierdzili, że dochodziło tutaj do wspólnej ewolucji. Naukowcy zauważyli, że obecnie 67,7% gatunków motyli to gatunki, które korzystają z jednej rodziny roślin, a 32,3% gatunków korzysta z dwóch lub więcej rodzin. Motyle żywiące się na bobowatych i wiechlinowatych często korzystają tylko z nich. Większość gatunków nie korzysta z roślin z innych rodzin. Bobowate i wiechlinowate są szeroko rozpowszechnione i występują niemal we wszystkich ekosystemach. Wiekszość z nich posiada też potężne chemiczne środki obronne odstraszające owady. Jednak od milionów lat rośliny te pozwalają, by motyle z nich korzystały.
      Grupa Kawahary zauważyła też, że aż 94,2% gatunków motyli pożywiających się na więcej niż jednej rodzinie roślin, wybiera rośliny blisko spokrewnione. To zaś potwierdza wcześniejsze badania, z których wynikało, że spokrewnione ze sobą motyle żywią się na spokrewnionych ze sobą roślinach.
      Ewolucja motyli i roślin okrytonasiennych jest ze sobą nierozerwalnie związana od samych początków istnienia tych roślin, a bliskie związki pomiędzy tymi organizmami doprowadziły do pojawienia się wspaniałej różnorodności i roślin, i zwierząt, dodaje profesor Pamela Soltiz z Florida Museum.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...