Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Duże mózgi ssaków rozwinęły się dzięki dwóm wielkim katastrofom

Recommended Posts

Po porównaniu masy mózgów i ciał 1400 żyjących i wymarłych gatunków ssaków naukowcy doszli do wniosku, że mózgi ssaków nie powiększały się liniowo. Grupa 22 naukowców, w tym biologów, antropologów i statystyków ewolucyjnych, wykorzystała w swoich badaniach m.in. skamieniałości 107 ssaków, w tym najstarszej małpy Europy czy prehistorycznych waleni. Okazało się, że zwierzęta o dużych mózgach, jak słonie czy delfiny, powiększały ten organ w różny sposób.

Na przykład w przypadku słoni w toku ewolucji dochodziło do zwiększania rozmiarów ciała, ale jeszcze szybciej zwiększały się rozmiary mózgu. Tymczasem delfiny zmniejszały swoje ciała, jednocześnie zwiększając mózg. U wielkich małp, wśród których widzimy bardzo duże zróżnicowanie stosunku wielkości mózgu do ciała, generalny trend ewolucyjny prowadził do zwiększania i rozmiarów ciała i rozmiarów mózgu. Jednak u homininów było inaczej. W przypadku naszych kuzynów widzimy relatywne zmniejszenie rozmiarów ciała i zwiększenie rozmiarów mózgu w porównaniu do wielkich małp.

Autorzy badań uważają, że te złożone wzorce ewolucji mózgu wskazują na konieczność przemyślenia paradygmatu mówiącego, iż porównanie stosunku wielkości mózgu do wielkości ciała wskazuje na stopień rozwoju inteligencji.

Wiele zwierząt o dużych mózgach, jak słonie, delfiny czy wielkie małpy mają wysoki stosunek wielkości mózgu do wielkości ciała. Ale nie zawsze wskazuje to na inteligencję. Na przykład uszanka kalifornijska ma dość niską masę mózgu w stosunku do masy ciała, a wykazuje się wysoką inteligencją, mówi biolog ewolucyjny Jaroen Smaers ze Stony Brook University.

Jeśli weźmiemy pod uwagę historię ewolucyjną uszanki zauważymy, że w jej przypadku istniała silna presja na zwiększanie rozmiaru ciała, prawdopodobnie ze względu na zróżnicowanie morskich mięsożerców i przystosowanie do częściowego życia na lądzie. Zatem w przypadku uszanki niski stosunek masy mózgu do masy ciała wynika nie z presji na zmniejszanie rozmiarów mózgu, a na zwiększanie rozmiarów ciała.

Obaliliśmy dogmat, że ze stosunek rozmiarów mózgu do reszty organizmu można wnioskować o inteligencji. Czasem duże mózgi to wynik stopniowego zmniejszania rozmiarów ciała, co miało pomóc w dostosowaniu się w nowego habitatu czy sposobu poruszania się. Nie ma to więc nic wspólnego z inteligencją. Jeśli chcemy wykorzystywać relatywnym rozmiar mózgu do wnioskowania o zdolnościach poznawczych, musimy przyjrzeć się też historii ewolucyjnej gatunku i sprawdzić, jak rozmiary mózgu i ciała zmieniały się w czasie", wyjaśnia Kamran Safi z Instytutu Zachowania Zwierząt im. Maxa Plancka.

Autorzy badań wykazali też, że do największych zmian w mózgach ssaków doszło po dwóch wielkich kataklizmach – masowym wymieraniu sprzed ok. 66 milionów lat i zmianie klimatu sprzed 23–33 milionów lat.

Gdy 66 milionów lat temu wyginęły dinozaury widoczna jest radykalna zmiana rozmiarów mózgu u takich ssaków jak gryzonie, nietoperze i mięsożercy, którzy wypełnili nisze po dinozaurach. Mniej więcej 30 milionów lat później, podczas ochłodzenia klimatu w oligocenie doszło do jeszcze głębszych zmian w mózgach niedźwiedzi, waleni, fok i naczelnych.

Olbrzymim zaskoczeniem było zauważenie, że do największych zmian w relatywnej wielkości mózgów dzisiejszych ssaków doszło w wyniku katastrofalnych wydarzeń, z którymi mieli do czynienia ich przodkowie, mówi Smaers. Mózgi delfinów, słoni i wielkich małp wyewoluowały do dużych rozmiarów względem rozmiarów ich ciał po przemianach klimatycznych sprzed 23–33 milionów lat.

Stosunek rozmiarów mózgu do rozmiarów ciała nie jest bez związku z ewolucją inteligencji. Jednak często może w większym stopniu wskazywać na dostosowanie się do presji środowiskowej niż na sam rozwój inteligencji, mówi Smaers.

Szczegóły badań opublikowano w artykule The evolution of mammalian brain size.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Używana jest zarówno nazwa uszanka jak i uchatka kalifornijska. Niemniej tradycyjnie zwierzęta tak wyglądające dzielimy na foki i uchatki.  Więc uchatka kalifornijska ma więcej sensu.

Share this post


Link to post
Share on other sites

Zmiana nazwy i systematyki wynika z badań genetycznych. Obecnie do rodzaju "uchatka" zalicza się tylko jeden gatunek - uchatkę patagońską, kilka innych gatunków (w tym płetwonogi z Kalifornii) okazało się bliżej spokrewnionych i wyodrębniono je w nowy rodzaj "uszanka". Podaję nazwy rodzajowe w mianowniku, bo jest też rodzaj "uchatek".

Do rodziny uchatkowatych należą też kotiki i kilka innych rodzajów, zapewne wyodrębnionych na podstawie badań genetycznych z uchatek lub kotików.

Edited by Usher

Share this post


Link to post
Share on other sites

Natura bardzo nie lubi bezużytecznych organów a kosztownych energetycznie organów, więc jedynym pewnikiem jest to, że optymalny rozmiar mózgu (przynajmniej w zakresie pewnego extremum lokalnego fitness)  jest taki, jaki mają zwierzęta.

Nie wydaje się, aby wielki mózg był potrzebny do czegokolwiek z wyjątkiem zdolności kognitywnych, więc nie rozpędzałbym się z klasyfikacją na zwierzęta mniej i bardziej inteligentne w stosunku do rozmiaru mózgu. Mózg musi kontrolować ciało, odpowiada za percepcję, musi pamiętać ogromną ilość informacji (w praktyce całe życie) - jest sporo powodów do powiększania jego rozmiaru. Zwłaszcza długość życia zwierząt i operacyjna złożoność środowiska są dosyć mocno ignorowane w tych wszystkich analizach.
Neuroplastyczność powoduje, że jest to mocno uniwersalny zasób, powiększanie mózgu może uniwersalnie odpowiadać na wiele specyficznych potrzeb.

Do tego najbardziej obciążającym zadaniem wydaje się być modelowanie innych zwierząt, być może powiększanie się mózgów ssaków to swoisty wyścig zbrojeń. Jeśli wyginęły "z natury tępe" drapieżniki których sukces zależy od innych czynników niż relacja sprytu z ich ofiarami, rozpoczęła się zabawa w kotka i myszkę ;)
To co my uważamy za inteligencję jest bardzo dalekie od typowych życiowych problemów z którymi zmagają się zwierzęta.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Niemal 100 lat temu, 15 stycznia 1919 roku w Bostonie doszło do niezwykłej śmiercionośnej katastrofy. W dzielnicy North End pękł zbiornik z melasą i ulicę zalała 7-metrowa fala słodkiej cieczy, która zniszczyła wiele budynków i zabiła 21 osób oraz kilkanaście koni. Przez 100 lat naukowcy zastanawiali się, jak wolno poruszający się płyn mógł mieć tak katastrofalne skutki. Dopiero teraz udało się wyjaśnić zjawiska fizyczne stojące u podstaw śmiertelnego słodkiego tsunami.
      Nicole Sharp, inżynier lotnictwa, która specjalizuje się w dynamice cieczy oraz Jordan Kennedy z Uniwersytetu Harvarda zebrali wszelkie dostępne dane na temat katastrofy, w tym doniesienia prasowe, stare mapy Bostonu czy informacje pogodowe. Przeprowadzili liczne eksperymenty dotyczące poruszania się melasy w różnych warunkach i wprowadzili uzyskane dane do modeli komputerowych. Niedawno wyniki swoich eksperymentów zaprezentowali podczas dorocznego spotkania Wydziału Dynamiki Cieszy Amerykańskiego Towarzystwa Fizycznego.
      Melasa jest płynem nieniutonowskim i pseudoplastycznym. Oznacza to, że lepkość tego płynu nie jest wartością stałą, jego krzywa płynięcia nie jest funkcją liniową, a jego naprężenie stycznie nie jest stałe i maleje wraz ze wzrostem prędkości ścinania. Jednak w niższych temperaturach melasa zachowuje się bardziej jak klasyczny płyn. Eksperymenty Sharp i Kennedy'ego wykazały, że jej lepkość drastycznie wzrasta w zimnych pomieszczeniach. Przelanie 48 mililitrów melasy do cylindra miarowego zajęło nam kilkanaście minut - mówi Sharp. Biorąc pod uwagę fakt, że w czasie wypadku w Bostonie było zimno, zasięg zniszczeń stanowił poważną zagadkę. Już wkrótce po wypadku gazety spekulowały, że pod zbiornik podłożono bombę i eksplozja spowodowała szybkie rozprzestrzenianie się melasy.
      Z najnowszych badań wiemy już, że znacznie lepszym wyjaśnieniem od podłożenia ładunku wybuchowego jest podstawowy przepływ horyzontalny cieczy w polu grawitacyjnym, który spowodowany jest różnicami w gęstości ośrodków. Odgrywa on znaczącą rolę wówczas gdy gęstsza ciecz rozprzestrzenia się horyzontalnie po cieczy mniej gęstej (w tym przypadku melasa po powietrzu). Podobne zjawisko obserwujemy, gdy otworzymy drzwi w ciepłym pomieszczeniu i gwałtownie wpada doń zimne powietrze. Ruch powietrza jest silny, pomimo braku wiatru. Sama gęstość melasy mogła odpowiadać za jej dużą prędkość początkową. Ważną rolę odegrała też temperatura. Zbiornik z melasą był nieco cieplejszy od otaczającego go powietrza. Gdy pękł, rozprzestrzeniająca się melasa ulagała szybkiemu schłodzeniu, przez co stawała się bardziej lepka i bardziej niebezpieczna. Melasa działała też na uwięzionych w niej ludzi jak ruchome piaski. Im bardziej próbowali się wydostać, tym bardziej w niej grzęźli. Wszystkie te czynniki spowodowały, że wypadek wiązał się z tak olbrzymimi zniszczeniami i dużą liczbą ofiar.
      Pani Sharp chce teraz rozszerzyć swoją analizę o to, co działo się w zbiorniku bezpośrednio przed katastrofą, gdy na jego dno wpompowano gorącą melasę. "Przypuszczam, że powstała jakaś niesamowita mieszanina o właściwościach skomplikowanych faktem, iż lepkośc melasy ulega znacznym zmianom wraz ze zmianami temperatury" - mówi uczona.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W pierścieniach drzew z francuskich Alp zauważono, że przed 14 300 laty doszło do gwałtownego wzrostu ilości radioaktywnej formy węgla, C-14. To ślad po największej znanej nam burzy słonecznej. Gdyby obecnie na Słońcu doszło do takiej burzy, miałoby to katastrofalne skutki dla naszej cywilizacji. Burza taka zniszczyłaby satelity komunikacyjne i nawigacyjne oraz spowodowała masowe uszkodzenia sieci elektroenergetycznych oraz internetu.
      O wynikach badań przeprowadzonych przez brytyjsko-francuski zespół naukowy, możemy przeczytać w Philosophical Transactions of the Royal Society A. Mathematical, Physical and Engineering Sciences. Ich autorzy przeanalizowali poziom radiowęgla w pozostałościach częściowo sfosylizowanych drzew znalezionych na zniszczonym erozją brzegu rzeki Drouzet w pobliżu Gap. Zauważyli, że dokładnie 14 300 lat temu nagle wzrósł poziom C-14. Po porównaniu go do poziomu berylu, naukowcy doszli do wniosku, że wzrost ilości węgla spowodowany był olbrzymią burzą na Słońcu.
      Radiowęgiel bez przerwy powstaje w górnych warstwach atmosfery w wyniku reakcji łańcuchowych zapoczątkowywanych przez promieniowanie kosmiczne. W ostatnich latach naukowcy zauważyli, że ekstremalne zjawiska na Słońcu, takie jak rozbłyski i koronalne wyrzuty masy, mogą prowadzić do nagłych krótkotrwałych wzrostów ilości energetycznych cząstek, które skutkują znaczącymi wzrostami ilości radiowęgla na przestrzeni zaledwie jednego roku, mówi główny autor badań, profesor Edouard Bard z Collège de France i CEREGE.
      Burza słoneczna, której ślady pozostały w pierścieniach drzew, sprowadziłaby katastrofę na współczesną cywilizację opartą na technologii. Już przed kilkunastu laty amerykańskie Narodowe Akademie Nauk opublikowały raport dotyczący ewentualnych skutków olbrzymiego koronalnego wyrzutu masy, który zostałby skierowany w stronę Ziemi. Takie wydarzenie spowodowałoby poważne perturbacje w polu magnetycznym planety, co z kolei wywołałoby przepływ dodatkowej energii w sieciach energetycznych. Nie są one przygotowane na tak gwałtowne zmiany.
      Omawiając ten raport, pisaliśmy, że mogłoby dojść do stopienia rdzeni w stacjach transformatorowych i pozbawienia prądu wszystkich odbiorców. Autorzy raportu stwierdzili, że gwałtowny koronalny wyrzut masy mógłby uszkodzić 300 kluczowych transformatorów w USA. W ciągu 90 sekund ponad 130 milionów osób zostałoby pozbawionych prądu. Mieszkańcy wieżowców natychmiast straciliby dostęp do wody pitnej. Reszta mogłaby z niej korzystać jeszcze przez około 12 godzin. Stanęłyby pociągi i metro. Z półek sklepowych błyskawiczne zniknęłaby żywność, gdyż ciężarówki mogłyby dostarczać zaopatrzenie dopóty, dopóki miałyby paliwo w zbiornikach. Pompy na stacjach benzynowych też działają na prąd. Po około 72 godzinach skończyłoby się paliwo w generatorach prądu. Wówczas stanęłyby szpitale.
      Najbardziej jednak przerażającą informacją jest ta, iż taki stan mógłby trwać całymi miesiącami lub latami. Uszkodzonych transformatorów nie można naprawić, trzeba je wymienić. To zajmuje zespołowi specjalistów co najmniej tydzień. Z kolei duże zakłady energetyczne mają na podorędziu nie więcej niż 2 grupy odpowiednio przeszkolonych ekspertów. Nawet jeśli część transformatorów zostałaby dość szybko naprawiona, nie wiadomo, czy w sieciach byłby prąd. Większość rurociągów pracuje bowiem dzięki energii elektrycznej. Bez sprawnego transportu w ciągu kilku tygodni również i elektrowniom węglowym skończyłyby się zapasy. Sytuacji nie zmieniłyby też elektrownie atomowe. Są one zaprojektowane tak, by automatycznie wyłączały się w przypadku poważnych awarii sieci energetycznych. Ich uruchomienie nie jest możliwe przed usunięciem awarii.
      O tym, że to nie tylko teoretyczne rozważania, świadczy chociażby fakt, że w marcu 1989 roku burza na Słońcu na 9 godzin pozbawiła prądu 6 milionów Kanadyjczyków. Z kolei najpotężniejszym tego typu zjawiskiem, jakie zachowało się w ludzkiej pamięci, było tzw. wydarzenie Carringtona z 1859 roku. Kilkanaście godzin po tym, jak astronom Richard Carrington zaobserwował dwa potężne rozbłyski na Słońcu, Ziemię zalało światło zórz polarnych. Przestały działać telegrafy, doszło do pożarów drewnianych budynków stacji telegraficznych, a w Ameryce Północnej, gdzie była noc, ludzie mogli bez przeszkód czytać gazety. Igły kompasów poruszały się w sposób niekontrolowany, a zorze polarne było widać nawet w Kolumbii.
      Obecnie ucierpiałyby nie tylko sieci elektromagnetyczne, ale również łączność internetowa. Na szczególne niebezpieczeństwo narażone byłyby kable podmorskie, a konkretnie zainstalowane w nich wzmacniacze oraz ich uziemienia. Więc nawet gdy już uda się przywrócić zasilanie, problemem będzie funkcjonowanie globalnego internetu, bo naprawić trzeba będzie dziesiątki tysięcy kilometrów kabli.
      Bezpośrednie pomiary aktywności Słońca za pomocą instrumentów naukowych ludzkość rozpoczęła dopiero w XVII wieku od liczenia plam słonecznych. Obecnie mamy dane z obserwatoriów naziemnych, teleskopów kosmicznych i satelitów. To jednak nie wystarczy, gdyż pozwala na zanotowanie aktywności Słońca na przestrzeni ostatnich kilkuset lat. Badania radiowęgla w pierścieniach drzew, w połączeniu z badaniem berylu w rdzeniach lodowych to najlepszy sposób na poznanie zachowania naszej gwiazdy w bardziej odległej przeszłości, mówi profesor Bard.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Wyjątkowa baza 2400 stanowisk archeologicznych obejmujących dzieje człowieka od 3 milionów lat temu do 20 000 lat temu obejmuje ponad 100 starych kultur i opisuje wyniki 150 lat prac archeologicznych. Jest ona dziełem naukowców z centrum badawczego ROCEEH (The Role of Culture in Early Expansions of Humans), którzy skompilowali olbrzymią liczbę informacji i umieścili je w jednej ogólnodostępnej bazie danych.
      ROAD (ROCEEH Out of Africa Database) to jeden z największych zbiorów danych dotyczących archeologii, antropologii, paleontologii i botaniki, wyjaśnia doktor Andrew Kandel z Uniwersytetu w Tybindze. W sposób jednorodny pod względem geograficznym i chronologicznym połączono informacje o zabytkach kultury, szczątkach człowieka i jego przodkach, pozostałościach zwierząt i roślin. W ten sposób powstało narzędzie, które pomaga w analizie wielu różnych aspektów ewolucji człowieka.
      Baza ROAD to wynik 15 lat pracy naukowców, którzy przeanalizowali ponad 5000 publikacji w wielu językach, w tym w angielskim, chińskim, francuskim, włoskim czy portugalskim. Powstała w ten sposób łatwa w użyciu interaktywna mapa stanowisk archeologicznych. Użytkownik może na jej podstawie tworzyć też własne mapy obejmujące konkretne kultury, obszary geograficzne czy okresy historyczne.
      Naukowcy mogą zadawać ROAD zaawansowane zapytania, dzięki którym sprawdzą na przykład, obecność konkretnej kategorii kamiennych narzędzi w Afryce czy dystrybucję konkretnych gatunków zwierząt w interesujących ich okresach, jak chociażby podczas wycofywania się lądolodu. Takie zapytania dostarczą naukowcom olbrzymiej ilości danych, które później mogą wykorzystać do dalszej pracy za pomocą zaawansowanych metod wizualizacji czy analizy, mówi Kandel.
      Baza pokazuje tez, że znaczna część naszej wiedzy pochodzi z bardzo niewielu dobrze przebadanych regionów, jak Afryka Południowa i Wschodnia, Europa czy Azja Centralna i Wschodnia. Większa część obszarów planety to archeologiczna biała plama. Badanie tych obszarów może przynieść w przyszłości niezwykle ekscytujące odkrycia.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Kanadyjsko-chiński zespół naukowy opisał niezwykłą skamieniałość sprzed 125 milionów lat przedstawiającą mięsożernego ssaka atakującego większego od siebie roślinożernego dinozaura. Oba zwierzęta znajdują się w śmiertelnym uścisku. To jeden z pierwszych dowodów pokazujących, że ssaki polowały na dinozaury, mówi doktor Jordan Mallon, paleobiolog z Kanadyjskiego Muzeum Natury i współautor badań opublikowanych na łamach Scientific Journal.
      Skamieniałość, która znajduje się w Muzeum Szkolnym Weihai Ziguang Shi Yan, to dowód, że ssaki stanowiły dla dinozaurów większe zagrożenie, niż się uważa. I to w czasach, gdy dinozaury dominowały na Ziemi.
      Zaatakowany dinozaur do psitakozaur wielkości dużego psa. Napastnikiem był zaś Repenomamus robustus. Jeden z największych ówczesnych ssaków, zwierzę wielkości borsuka. Przed odkryciem skamieniałości naukowcy wiedzieli, że Repenomamus pożywiał się na psitakozaurach, gdyż w żołądkach ssaków znajdowano kości tych dinozaurów. Nie było jednak jasne, czy na nie polował, czy żywił się padliną. Współistnienie obu gatunków nie jest niczym nowym, ale nowością jest uwieczniona w skamieniałości scena polowania, wyjaśnia Mallon.
      Skamieniałość, przedstawiająca niemal kompletne szkielety obu zwierząt, została znaleziona w 2012 roku w Liujitun w prowincji Liaoning, miejscu zwanym „Pompejami chińskich dinozaurów". Znajduje się tam olbrzymia liczba skamieniałości zwierząt, które zostały nagle pogrzebane w wyniku osunięcia się ziemi po co najmniej jednej erupcji wulkanicznej.
      Badacze wykluczają, byśmy widzieli tutaj scenę pożywiania się ssaka na martwym dinozaurze. Na kościach dinozaura nie widać bowiem żadnych śladów ugryzień, zwierzęta są ze sobą splątane, a Repenomamus znajduje się na górze. Mamy tutaj do czynienia z walką o życie. Naukowcy nie wykluczają, że ssak zaczął pożerać jeszcze żywego dinozaura, gdy oba zwierzęta zginęły przysypane lawiną błotną.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Glejak wielopostaciowy to jeden z najczęściej spotykanych i najbardziej agresywnych pierwotnych nowotworów mózgu. Występuje on u od 0,6 do 5 osób na 100 000, a liczba jego przypadków rośnie na całym świecie. Średni spodziewany czas życia od postawienia diagnozy wynosi zaledwie 15 miesięcy. Na University of Toronto postała właśnie nowa technika mikrochirurgiczna, która może pomóc w leczeniu tej choroby. Związane z nią nadzieje są tym większe, że może być wykorzystana do leczenie guzów opornych na inne terapie i umiejscowionych w tych obszarach mózgu, w których interwencja chirurgiczna jest wykluczona.
      Obecnie standardowe leczenie glejaka polega na usunięciu guza i zastosowaniu radio- oraz chemioterapii. Niestety, komórki glejaka bardzo szybko się namnażają i naciekają na sąsiadującą tkankę, przez co ich chirurgiczne usunięcie jest bardzo trudne. Tym bardziej, że mamy do czynienia z mózgiem, w którym nie możemy wycinać guza z dużym marginesem. Jakby tego było mało, glejak szybko nabiera oporności na chemioterapię. Bardzo często więc u pacjentów dochodzi do wznowy nowotworu, który wkrótce przestaje reagować na dostępne metody leczenia.
      Yu Sun, profesor na Wydziale Nauk Stosowanych i Inżynierii oraz Xi Huang z Wydziału Medycyny University of Toronto mają nadzieję na zmianę stanu rzeczy za pomocą robotycznych nano-skalpeli, które mogą precyzyjnie zabijać komórki nowotworu.
      Naukowcy stworzyli węglowe nanorurki, które wypełnili cząstkami tlenku żelaza. Tak uzyskane magnetyczne nanorurki (mCNT) są pokryte przeciwciałami, które rozpoznają specyficzną dla komórek glejaka proteinę CD44. Nanorurki są następnie wstrzykiwane w miejsce występowania guza i samodzielnie poszukują proteiny CD44. Gdy ją znajdą, przyczepiają się do komórki i do niej wnikają. A kiedy są już na miejscu, wystarczy włączyć zewnętrzne pole magnetyczne, pod wpływem którego mCNT zaczynają wirować, uszkadzając od wewnątrz komórki glejaka i prowadzą do ich śmierci.
       

       
      Jako że nanorurki niszczą komórki za pomocą oddziaływania mechanicznego, nie ma ryzyka, że komórki zyskają oporność na ten sposób oddziaływania. Nowa metoda może zatem być odpowiedzią zarówno na problem uodparniania się guza na chemioterapię, jak i na niemożność tradycyjnego usunięcia guza metodami chirurgicznym. Podczas przeprowadzonych już badań na myszach naukowcy wykazali, że ich metoda zmniejszyła rozmiary guza i wydłużyła życie myszy z oporną na chemioterapię formą glejaka wielopostaciowego.
      Inną korzyścią z zastosowania mechanicznego oddziaływania mCNT jest fakt, że obok fizycznego niszczenia struktury komórek, nanorurki mogą modulować specyficzne biochemiczne szlaki sygnałowe, co będziemy starali się wykorzystać do opracowania łączonej terapii biorącej na cel nieuleczalne guzy mózgu, mówi Wang.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...