Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36960
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. Chorzy na czerniaka, którzy palą papierosy, mają o 40% mniejszą od niepalących szanse na przeżycie choroby. Takie wnioski płyną z przeprowadzonych w Wielkiej Brytanii badań nad 700 osobami. Autorzy badań, naukowcy z University of Leeds, mówią, że to kolejny powód, dla którego warto rzucić palenie. Stwierdzili bowiem, że dekadę po diagnozie przeżywa o 40% mniej osób palących papierosy. Wszystko wskazuje na to, że przyczyną takiego stanu rzeczy jest osłabianie układu odpornościowego przez tytoń. Co więcej okazało się, że w grupie 156 pacjentów o największej liczbie markerów genetycznych układu odpornościowego, a więc u takich pacjentów, u których odpowiedź immunologiczna powinna być najsilniejsza, szanse palaczy na przeżycie były aż 4,5-krotnie mniejsze niż niepalących. Zatem palenie tytoniu najbardziej zmniejsza szanse przeżycia u osób o najsilniejszym układzie odpornościowym. To zaś sugeruje, że palenie tytoniu bezpośrednio wpływa na sposób, w jaki organizm pacjenta radzi sobie z czerniakiem. Już wcześniej pojawiały się doniesienia, że tytoń upośledza układ odpornościowy, ale wciąż nie wiadomo, który konkretnie składnik dymu za to odpowiada. Układ odpornościowy jest jak orkiestra. Składa się z wielu instrumentów. Nasze badania sugerują, że palenie tytoniu zaburza jego harmonię. Muzycy nadal grają, ale w sposób mniej zorganizowany. Skutek tego jest taki, że w organizmie pacjenta wciąż pojawia się reakcja immunologiczna, organizm próbuje zwalczyć nowotwór, ale jest to mniej efektywne, niż w przypadku osób, które nigdy nie paliły. Z tego też powodu palacze mają mniejsze szanse na przeżycie, mówi główna autorka badań, profesor Julia Newton-Bishop. Ludzie ze zdiagnozowanym czerniakiem powinni rzucić palenie, dodaje uczona. « powrót do artykułu
  2. W Katedrze Technologii Polimerów Wydziału Chemicznego Politechniki Gdańskiej została opracowana innowacyjna kompozycja polimerowa, służąca do produkcji m.in. ekologicznych, podlegających recyklingowi organicznemu sztućców jednorazowego użytku. To odpowiedź naukowców na poparcie przez Parlament Europejski wprowadzenia w UE zakazu sprzedaży przedmiotów jednorazowego użytku, takich jak plastikowe sztućce, słomki czy talerze, otrzymywane z tradycyjnych tworzyw sztucznych. Do wytworzenia naszych materiałów biopolimerowych wykorzystuje się łatwo dostępne surowce w pełni pochodzenia naturalnego lub surowce pozyskiwane z odnawialnych źródeł, co stanowi istotną przewagę nad stosowanymi powszechnie materiałami ropopochodnymi – tłumaczy prof. Helena Janik, kierownik zespołu badawczego. Innowacyjna kompozycja zawiera m.in. skrobię termoplastyczną uzyskaną z mąki ziemniaczanej i dodatki pochodzenia naturalnego oraz biopolimer polilaktyd (PLA). Odpowiedni dobór rodzaju i ilości modyfikatora skrobi termoplastycznej oraz jej kompozycji z PLA zapewnia materiał o pożądanej przetwarzalności oraz podatności na kompostowanie, a także o odpowiednich właściwościach fizyko-mechanicznych produktów gotowych – dodaje prof. Helena Janik. Otrzymywane z takiej kompozycji produkty jednorazowe są trwałe w użytkowaniu, a jednocześnie zachowują właściwości przyjazne dla środowiska naturalnego. Mogą być kompostowane wraz z resztkami jedzenia i ulegają całkowitej biodegradacji. Kolejnym niewątpliwym atutem wynalazku jest możliwa do zastosowania metoda wytwarzania na jego bazie produktów jednorazowych. Granulaty opracowanej skrobi i jej kompozycje z PLA to materiały termoplastyczne, a więc mogą być wykorzystane w produkcji wyrobów jednorazowych metodą formowania wtryskowego lub metodą wytłaczania, uznawanych za jedne z najtańszych i najszybszych metod otrzymywania wyrobów użytkowych z klasycznych tworzyw sztucznych – tłumaczy prof. Helena Janik. Jednym z pierwszych produktów przeznaczonych do wdrożenia w oparciu o tę kompozycję są sztućce jednorazowego użytku. Przeprowadzono testy technologiczne otrzymywania prototypu takich sztućców w skali przemysłowej we współpracy z jedną z branżowych firm zainteresowanych wdrożeniem rozwiązania. Dowiodły one, że opracowane kompozycje charakteryzują się wyższą odpornością termiczną niż produkty z czystego PLA. Mieszankę polimerową naukowców z Gdańska charakteryzuje jeszcze jedna istotna cecha, która jest przedmiotem zainteresowania przedsiębiorców. Ze względu na zastąpienie części PLA przez znacznie tańszą skrobię termoplastyczną, finalna cena 1 kg naszej kompozycji jest niższa od czystego PLA o około 15%, a proces wdrożenia technologii do produkcji niezwykle prosty – wyjaśnia dr inż. Maciej Sienkiewicz, współtwórca technologii wytwarzania granulatu i jego wytłaczania. Przeprowadzone w akredytowanych laboratoriach badania, obejmujące m.in. ocenę podatności na kompostowanie, zdolność do biodegradacji oraz wpływ na środowisko wodne, wypadły bardzo pozytywnie, dowodząc wyższości opracowanych kompozycji nad istniejącymi na rynku rozwiązaniami. Kompozycje polimerowe są przedmiotem patentu europejskiego o numerze EP3064542, a ochrona utrzymywana jest w Polsce, Niemczech, Francji oraz Wielkiej Brytanii. « powrót do artykułu
  3. Dzięki wielkiemu trzęsieniu ziemi w Boliwii odkryto masyw górski znajdujący się 660 kilometrów pod powierzchnią Ziemi. Występuje on w miejscu, w którym przebiega granica pomiędzy górnym a dolnym płaszczem. Jessica Irving i Wenbo Wu z Princeton University oraz Siado Ni z chińskiego Instytutu Geodezji i Geofizyki, wykorzystali dane z potężnego trzęsienia ziemi, które nawiedziło Boliwię w 1994 roku. Miało ono siłę 8,2 stopnia w skali Richtera i było drugim najpotężniejszym trzęsieniem w głębi Ziemi, jakie kiedykolwiek zanotowano. Tak wielkie trzęsienia zdarzają się rzadko. Mamy szczęście, że obecnie dysponujemy większa liczbą sejsmometrów niż przed 20 laty. Obecna sejsmologia to, pod względem dostępnego sprzętu i zasobów obliczeniowych, zupełnie różna nauka od tej sprzed 20 lat, mówi Irving. Teraz naukowcy mogli użyć potężnych maszyn obliczeniowych, w tym superkomputera Tiger. Badanie podziemnych struktur za pomocą fal sejsmicznych jest podobne do procesu widzenia. Wiemy, że niemal wszystkie obiekty są szorstkie i rozpraszają światło. Dlatego je widzimy. Rozproszone fale świetlne niosą informacje o powierzchni obiektów. W naszym badaniu wykorzystaliśmy rozproszone fale sejsmiczne wędrujące wewnątrz ziemi do odtworzenia szorstkości struktur na głębokości 660 kilometrów. Naukowcy byli zdziwieni tym, co zobaczyli. Na tamtej głębokości mamy do czynienia z wyraźniej widocznymi strukturami niż Góry Skaliste czy Appalachy, mówi Wu. Wykorzystane metody statystyczne nie pozwoliły na określenie wysokości gór, jednak niewykluczone, że są one wyższe niż jakiekolwiek góry na powierzchni. Oni odkryli, że topografia głębokich warstw Ziemi jest równie złożona co jej powierzchnia. Odnalezienie za pomocą fal wędrujących przez całą Ziemię zmian wysokości rzędu 3 kilometrów na głębokości 660 kilometrów jest czymś inspirującym. To pokazuje, że wraz z rozwojem technologii i rejestrowaniem kolejnych trzęsień Ziemi będziemy w stanie rejestrować coraz mniejsze struktury i poznamy nowe właściwości planety, mówi profesor Christine House z Tokijskiego Instytutu Technologicznego. Odkrycie gór na granicy dwóch warstw płaszcza jest bardzo ważne dla zrozumienia budowy naszej planety. Przez dekady naukowcy spierali się o to, jak ważna jest ta granica, badali jak przepływa przez nią energia, czy dochodzi do jakiegoś przerwania jej przepływu. Niektóre dowody wskazują, że warstwa górna i dolna płaszcza są różne pod względem chemicznym, co może oznaczać, że się nie mieszają. Inne obserwacje sugerują, że nie ma pomiędzy nimi różnic, to zaś by oznaczało, że obie warstwy biorą udział w wymianie ciepła. Najnowsze badania wskazują, że oba poglądy mogą być częściowo prawdziwe. Powstanie gór może być spowodowane procesem mieszania się warstw, a ich istnienie świadczy o tym, że nie mieszają się zbyt dobrze. Ponadto takie struktury mogą być, przynajmniej teoretycznie, powodowane anomaliami termalnymi i chemicznymi. Jednak, jak wyjaśnia Wu, jeśli mielibyśmy do czynienia tylko z anomaliami termicznymi, to w ciągu kilku milionów lat doszłoby do ich wyrównania. To zaś sugeruje, że mamy do czynienia z różnicami chemicznymi. Co zaś mogło spowodować tak duże różnice chemiczne? Niewykluczone, że obecność skał pochodzących ze skorupy. Naukowcy od dawna zastanawiają się, co dzieje się z płytami tektonicznymi zanurzającymi się w strefach subdukcji. Wu i Irving nie wykluczają, że ich pozostałości trafiają do strefy granicznej pomiędzy górnym a dolnym płaszczem ziemskim. « powrót do artykułu
  4. Wypalanie ponad 20 papierosów dziennie może prowadzić do uszkodzenia wzroku. W badaniu uwzględniono 71 zdrowych osób, które w ciągu życia wypaliły mniej niż 15 papierosów, oraz 63 osoby ze zdiagnozowanym uzależnieniem, które nigdy nie próbowały zerwać z nałogiem i wypalały ponad 20 papierosów dziennie. Ochotników w wieku 25-45 lat zbadano za pomocą tablic służących do oceny ostrości wzroku; wszyscy mieli wzrok normalny bądź skorygowany do normalnego. Podczas eksperymentu sprawdzano, jak dobrze badani radzą sobie z rozróżnianiem subtelnych różnic odcieni (poziomów kontrastu) i kolorów. Naukowcy sadzali ich w odległości 1,5 m od 19-calowego monitora CRT. Okazało się, że u palaczy występowały znaczące zmiany w widzeniu barwnym w zakresie niebiesko-żółtym i czerwono-zielonym (cechowała ich obniżona zdolność dyskryminacji kontrastów i barw). To sugeruje, że przyjmowanie substancji o działaniu neurotoksycznym może prowadzić do utraty widzenia barwnego. Wcześniejsze badania wskazywały, że długotrwałe palenie podwaja ryzyko związanego z wiekiem zwyrodnienia plamki żółtej. Powiązano je także z żółknięciem soczewki oraz zapaleniem [błony naczyniowej]. Nasze badania pokazują, że wypalanie dużej liczby papierosów lub przewlekła ekspozycja na substancje związane z ich używaniem wpływają na rozróżnianie wzrokowe [...] - podkreśla Steven Silverstein z Rutgers University. Badania, których wyniki ukazały się w Psychiatry Research, nie dają fizjologicznego wyjaśnienia zaobserwowanych zjawisk, ale naukowcy podejrzewają, że przyczyną są uszkodzenia naczyń i neuronów siatkówki. « powrót do artykułu
  5. Aktywując gen ważny dla działania neuronów pobudzających i związany z tzw. dużą depresją (ang. major depression), można sobie poradzić, przynajmniej u samców myszy, z klasycznymi objawami depresji, takimi jak społeczna izolacja czy utrata zainteresowania. Naukowcy z Uniwersytetu w Auguście skupili się na korze przedczołowej, która odpowiada za planowanie, osobowość i zachowania społeczne i która odgrywa ważną rolę w patogenezie dużej depresji. Okazało się, że zmniejszenie ekspresji genu (ang. gene knockdown) SIRT1 w neuronach pobudzających przyśrodkowej kory przedczołowej (ang. medial prefrontal cortex, mPFC) wywołało objawy depresyjne u dorosłych samców myszy. Dla odmiany wstrzyknięcie leku (SRT2104), który aktywował SIRT1, do mPFC lub komory bocznej mózgu myszy typu dzikiego likwidowało wywołane stresem symptomy anhedonii (niezdolności do odczuwania przyjemności) itp. Pogłębione badania wykazały, że utrata SIRT1 obniża m.in. pobudzającą transmisję synaptyczną komórek piramidowych (komórek Betza) z V warstwy kory mózgowej w okolicy prelimbicznej mPFC. Wyładowywanie neuronów pobudzających jest w depresji znacznie ograniczone, przez co komórki nerwowe nie komunikują się, jak powinny. Wygląda to tak, jakby były odłączone - opowiada dr Xin-Yun Lu. Trudno ulegać pobudzeniu bez energii, tymczasem okazało się, że knockdown SIRT1 zmniejsza gęstość mitochondriów oraz poziom ekspresji genów związanych z biogenezą mitochondrialną, czyli powstawaniem nowych mitochondriów w mPFC. Autorów publikacji z pisma Molecular Psychiatry zaskoczyło, że wybiórcze usunięcie SIRT1 z neuronów pobudzających wywołało objawy depresji u samców, ale nie u samic myszy. Naukowcy podejrzewają, że wiąże się to z międzypłciowymi różnicami w liczbie neuronów i synaps w mPFC. Obecnie Lu sprawdza, czy podobne różnice międzypłciowe dotyczą hipokampa, struktury odpowiedzialnej za pamięć, która u osób z nawracającą depresją jest znacznie mniejsza. Farmakolog Lu chce sprawdzić, czy leki niewykorzystywane dotąd w leczeniu depresji działają na SIRT1 tak jak SRT2104. « powrót do artykułu
  6. Połączenie dwóch leków, w tym jednego leku do immunoterapii, może stać się nowym standardem leczenia zaawansowanego dającego przerzuty nowotworu nerki. Eksperci z Dana-Farber Cancer Institute informują o obiecujących wynikach 3. fazy testów klinicznych. U pacjentów, którzy otrzymywali kombinację leku do immunoterapii avelumabu oraz lek o nazwie axitynib, który jest inhibitorem kinazy tyrozynowej receptora czynnika wzrostu śródbłonka naczyń (VEGFR) znacznie dłużej nie dochodziło do progresji nowotworu, niż u pacjentów, którzy otrzymywali sam sunitynib (VEGFR). Sunitynib to lek standardowo podawany w zaawansowanym raku nerki. U pacjentów, którym podawaliśmy kombinację leków zauważyliśmy też mocniejszą odpowiedź, co znaczy, że ich guz się zmniejszył, niż w grupie otrzymującej sunitynib, mówi główny autor badań profesor Toni K. Choueiri. Taka kombinacja jest z pewnością lepsza od sunitynibu. Mam nadzieję, że FDA szybko ją zatwierdzi, dodaje uczony. To pierwsze badania, podczas których połączono avelumab z lekiem klasy VEGFR. Tego typu środki lecznice mają za zadanie zagłodzić guza poprzez odcięcie dopływu krwi, a leki takie jak avelumab, który blokuje punkt kontrolny PD-L1, aktywują limfocyty T do zwalczania nowotworu. We wspomnianych badaniach wzięło udział 886 pacjentów z wcześniej nieleczonym zaawansowanym rakiem nerki. Przypisano ich losowo do dwóch grup. Okazało się, że w przypadku grupy biorącej kombinację leków średni czas wolny od rozwoju choroby wynosił 13,8 miesiąca, a w grupie przyjmującej sam sunitynib było to 7,2 miesiąca. Ponadto w grupie przyjmującej kombinację leków zmniejszenie się guza zanotowano u 55,2% pacjentów, a w drugiej grupie odsetek ten wyniósł 25,5%. Co interesujące, analiza wykazała, że wszystkie podgrupy pacjentów, ci z dobrymi rokowaniami, średnimi i złymi, odniosły korzyści z terapii łączonej, mówi Choueiri. U niemal wszystkich pacjentów z obu grup wystąpiły takie same skutki uboczne. W grupie leków łączonych najbardziej rozpowszechnionymi – doświadczonymi przez 38,2% osób – były objawy od układu odpornościowego, z czego najczęstszym były zaburzenia pracy tarczycy (107 pacjentów). Jak podkreślił Choueiri, uzyskane wyniki są istotne dla pacjentów z zaawansowaną chorobą. Ta terapia nie leczy, ale pacjenci żyją dłużej, stwierdził. « powrót do artykułu
  7. W Australii dochodzi do najszybszego na świecie wymierania ssaków. Tym razem jednak przyczyną tego procesu może być... brak ingerencji człowieka w przyrodę. Moje badania były motywowane tajemniczym zjawiskiem, jakie od 50 lat ma miejsce w Australii. Wzorzec znikania małych ssaków nie odpowiada wzorcowi, jaki zwykle widzimy, gdy ludzie wpływają na środowisko i zwierzęta giną, mówi profesor Rebecca Bliege Bird, antropolog z Pennsylvania State University. Profesor Bird i jej zespół pracowali na Wielkiej i Małej Pustyni Piaszczystej, zamieszkanej przez lud Martu. W połowie ubiegłego wieku Martu zostali wysiedleni, gdyż na ich ziemiach utworzono poligon rakietowy. W czasach, gdy Martu byli nieobecni na swoich ziemiach, wyginęło wiele rodzimych gatunków. W latach 80. ubiegłego wieku Martu zaczęli powracać na swoje tereny i prowadzić tradycyjny sposób życia, polegający na łowiectwie i zbieractwie. Obecnie istnieje tam hybrydowa ekonomia, z wieloma Martu żyjącymi tak, jak ich przodkowie, co oznacza też, że regularnie wypalają ziemię. Od czasu, gdy do Australii przybyli Europejczycy, na kontynencie wyginęło 28 endemicznych gatunków ssaków. Dochodzi też do lokalnych wyginięć. Zanim Martu zostali usunięci ze swojej ziemi żyło na niej wiele kanguroszczurów Bettongia lesueur oraz filanderków pręgowanych. Po wypędzeniu Martu zwierzęta te lokalnie wyginęły. Przed latami 50., w okresie zanim nawiązano z nimi kontakt, Martu mieli bardziej różnorodną dietę niż jakiekolwiek zwierzę w tym regionie. Gdy powrócili po przesiedleniu nadal mieli zróżnicowaną dietę, ale zniknęło w niej wiele roślin i zwierząt, mówi Bird. Uczona odkryła też, że przed pojawieniem się Europejczyków pies dingo stanowił część życia Martu. Ludzie, wypalając roślinność, utworzyli zróżnicowany krajobraz, który był ważny dla przetrwania dingo. Kiedy ludzi zabrakło dingo zaczęły mieć problemy i nie były w stanie kontrolować populacji mniejszych inwazyjnych drapieżników, takich jak koty i lisy, które zagroziły istnieniu małych rodzimych ssaków. Profesor Bird i jej zespół przyjrzeli się sieciom żywieniowym, interakcjom opisującym kto kim się posila, z okresu przed i po przesiedleniu Martu. Porównanie wykazało, że gdy ludzie zniknęli, gatunki inwazyjne mogły się łatwiej rozprzestrzenią, przez co zagroziły gatunkom rodzimym, a niektóre doprowadziły do zagłady. To najprawdopodobniej najpoważniejszy negatywny skutek braku tradycyjnego wypalania roślinności. Rodzime ludy Australii żyjące na pustyniach często wypalają duże połacie terenu, by ułatwić sobie polowania. Tam, gdzie polują Martu krajobraz poprzecinany jest obszarami roślinności na różnym etapie wegetacji i odrastania. Takie łaty roślinności służą też jako bufory nie pozwalające na zbytnie rozprzestrzenienie się ognia. Obszary trawiaste, na których Martu rzadko polują, mają tendencje do ulegania wielkim pożarom. Gdy w okolicy żyją Martu, wypalają oni trawy, co z jednej strony zapobiega olbrzymim pożarom, a z drugiej zwiększa populacje rodzimych zwierząt takich jak psy dingo, kangury czy jaszczurki. Populacje rozwijają się, pomimo śmiertelności związanej z działalnością Martu. Brak ludzi to poważna wyrwa w całej sieci. Gatunki inwazyjne mają wówczas ułatwione zadanie i łatwiej im też doprowadzić do wyginięcia rodzimej populacji, tłumaczy Bird. « powrót do artykułu
  8. Naukowcy opisali szczegóły regulacji krzepnięcia przez organizm. Może to pomóc w opracowaniu lepszych metod zapobiegania i terapii m.in. chorób serca, udarów czy otępienia naczyniowego. Zespół, którego pracami kierowali specjaliści z Uniwersytetu w Exeter, opracował nową technikę, która jednocześnie pozawala mierzyć krzepnięcie i tworzenie wolnych rodników. Wolne rodniki przyczyniają się do chorób serca i układu krążenia, np. miażdżycy, demencji czy zwyrodnienia stawów. Technika, którą opisano na łamach Haematologica, to połączenie spektroskopii EPR (spektroskopii elektronowego rezonansu paramagnetycznego) oraz agregometrii. Z powodzeniem przetestowano ją na mysich i ludzkich trombocytach. Jesteśmy bardzo podekscytowani stworzeniem tej techniki oraz jej potencjałem w zakresie zrozumienia rozwoju chorób naczyniowych. Po raz pierwszy mogliśmy naraz mierzyć krzepnięcie i powstawanie wolnych rodników, w przypadku których wiemy, że odgrywają istotną rolę w uszkodzeniu naczyń związanym z wiekiem, cukrzycą, otyłością i przewlekłym stanem zapalnym. Obecnie posługujemy się tą nową techniką podczas prac nad nową metodą ochrony naczyń w chorobach serca, udarze, otyłości i otępieniu naczyniopochodnym - podkreśla dr Giordano Pula. Ekipa, w skład której wchodził m.in. prof. Patrick Pagano z Uniwersytetu w Pittsburghu, ustaliła, że oksydazy NADPH są krytyczne dla powstawania wolnych rodników, stymulacji krzepnięcia i sprzyjania uszkodzeniu naczyń. Teraz wiadomo już, że 1) anionorodnik ponadtlenkowy, generowany wewnątrz-, ale nie zewnątrzkomórkowo przez oksydazy, jest niezbędny dla stymulacji płytek krwi przez kolagen, 2) do aktywacji zależnej od trombiny konieczna jest dysmutacja anionu ponadtlenkowego do nadtlenku wodoru, 3) NOX1 jest głównym źródłem wolnych rodników przy stymulacji kolagenem, a NOX2 jest niezbędny do aktywacji przez trombinę, 4) dwa modulatory płytek, utlenione lipoproteiny o niskiej gęstości (ang. oxidised low density lipoproteins, oxLDL) i Aβ, wymagają aktywacji zarówno NOX1, jak i NOX2, by wstępnie "pobudzić" trombocyty. « powrót do artykułu
  9. Podczas niedawnych wykopalisk w Pompejach odkryto fresk przedstawiający Narcyza wpatrującego się we własne odbicie. Barwy farb doskonale się zachowały. Massimo Osanna, dyrektor parku archeologicznego w Pompejach, podkreśla, że mit o Narcyzie był w Pompejach bardzo popularnym toposem. Profesor dodaje, że całe otoczenie jest przesycone tematyką joie de vivre, piękna i marności. Uwypuklają to postaci menead [bachantek] i satyrów, które [...] towarzyszą gościom w publicznej części antycznego domostwa. Odkrycia dokonano zaledwie parę miesięcy po znalezieniu fresku przedstawiającego Lejdę, królową Sparty, z łabędziem. Piękno tych pomieszczeń skłoniło nas do zmiany projektu i kontynuowania wykopalisk. W przyszłości będzie można udostępnić zwiedzającym przynajmniej część tej willi. Archeolodzy ujawniają, że w atrium z Narcyzem nadal widać ślady klatki schodowej prowadzącej na piętro. Spełniała ona funkcję magazynu, dlatego w pobliżu natrafiono na szklane pojemniki, 8 amfor i lejek z brązu. Nieopodal impluvium, prostokątnego basenu na deszczówkę w posadzce atrium, znaleziono situlę.   « powrót do artykułu
  10. Ćwiczenia mogą korzystnie wpływać na zdrowie, zwiększając bioróżnorodność mikrobiomu jelitowego. Wyniki opisane na łamach Experimental Physiology sugerują, że ćwiczenia o poziomie intensywności pozwalającym zwiększyć wydolność krążeniowo-oddechową (ang. cardiorespiratory fitness) mogą korzystnie wpływać na zdrowie, wywołując pożądane zmiany w składzie, aktywności i skupiskach mikroorganizmów jelitowych. Poprawa wydolności krążeniowo-oddechowej przejawia się wzrostem objętości krwi przepompowywanej przez serce przy każdym uderzeniu oraz wzrostem liczby naczyń włosowatych dostarczających tlen do mięśni. Wcześniej wiadomo było, że większa wydolność sercowo-naczyniowa współwystępuje z wyższą bioróżnorodnością mikrobiomu. Nie było jednak jasne, czy należy to przypisać zawartości tkanki tłuszczowej (%F) czy ogólnemu poziomowi aktywności. Ponieważ terapia nowotworów wyzwala zmiany fizjologiczne szkodliwe dla zdrowia sercowo-metabolicznego, w tym wzrost zawartości tkanki tłuszczowej i spadek wydolności krążeniowo-oddechowej, zespół Stephena Cartera z Uniwersytetu Indiany prowadził badania na 37 kobietach, które przeżyły raka sutka bez przerzutów (ich leczenie skończyło się co najmniej rok przed rozpoczęciem studium). Panie wzięły udział w stopniowanym teście wysiłkowym (ang. graded exercise test, GXT). Na tej podstawie szacowano ich szczytową wydolność krążeniowo-oddechową oraz określano całkowite wydatkowanie energii. Badano też mikrobiom. Okazało się, że ochotniczki z lepszą wydolnością krążeniowo-oddechową cechowała wyższa bioróżnorodność mikrobiomu niż badane o gorszej kondycji. Pogłębiona analiza wykazała, że niezależnie od %F, wydolność krążeniowo-oddechowa odpowiadała za ok. 1/4 zmienności bogactwa gatunkowego i równomierności rozmieszczenia gatunków. Choć uzyskane wyniki są interesujące, naukowcy podkreślają, że z uwagi na przekrojowy charakter badania, wskazują jedynie na korelację, a nie na związki przyczynowo-skutkowe. Dodatkowo próba składała się wyłącznie z kobiet z historią raka piersi i raczej niskim poziomem wydolności krążeniowo-oddechowej, co sprawia, że przy generalizacji wyników na inne grupy należy zachować ostrożność. Carter podkreśla, że jego zespół pracuje nad badaniem interwencyjnym, podczas którego sprawdzano by, jak ćwiczenia o różnej intensywności wpływają na bioróżnorodność mikrobiomu w warunkach kontrolowanego żywienia. « powrót do artykułu
  11. Komórki nowotworowe mają niezwykłe właściwości, dzięki którym mogą szybko się mnożyć i unikać ataku ze strony układu odpornościowego, stać się nieśmiertelne czy błyskawicznie zyskać oporność na leki. Jednak nabywając tych niezwykłych cech muszą czasem rezygnować z innych, bardziej zwyczajnych umiejętności. Naukowcy z The Rockefeller University poinformowali właśnie, że komórki pewnego rzadkiego nowotworu nie są w stanie samodzielnie syntetyzować cholesterolu, bez którego nie przetrwają. Te komórki są zależne od pobierania cholesterolu z otoczenia. Możemy to wykorzystać do opracowania terapii, które będą blokowały pobieranie cholesterolu, mówi profesor Kivanc Birsoy. Uczonego od dawna fascynował fakt, że niektóre komórki nowotworowe utraciły zdolność syntezy podstawowych składników odżywczych. Na przykład komórki niektórych typów białaczki nie są w stanie syntetyzować aminokwasu o nazwie asparagina. Nowotwory te leczy się środkiem o nazwie asparaginaza, który usuwa asparaginę z krwi, dzięki czemu można zagłodzić nowotwór. Dlatego też Birsoy wraz z zespołem postanowił poszukać innych nowotworów, które nie są w stanie syntetyzować składników odżywczych. Najpierw przyjrzeli się cholesterolowi, potrzebnemu komórkom do dzielenia się. Zwykle komórki nowotworowe albo samodzielnie wytwarzają cholesterol, albo pobierają go z bezpośredniego otoczenia. Naukowcy umieścili 28 różnych typów komórek nowotworowych w środowisku, które nie zawierało cholesterolu. Okazało się, że komórki chłoniaka anaplastycznego z dużych komórek ALK + nie przeżyły, co wskazuje, że są uzależnione od dostaw cholesterolu z zewnątrz. Gdy naukowcy przyjrzeli się ekspresji genów tych komórek odkryli, że brakuje im enzymu potrzebnego do syntezy cholesterolu. Bez tego enzymu komórki gromadzą skwalen, słabo poznany prekursor cholesterolu. Profesor Birsoy zauważa, że to nagromadzenie skwalenu może być korzystne dla komórek, gdyż ma on właściwości przeciwutleniające, więc może je chronić przed stresem oksydacyjnym. Podczas innych eksperymentów grupa Birsoya usunęła receptory LDL z komórek nowotworowych. Za pomocą tych receptorów pobierają one cholesterol z otoczenia, a gdy zostały ich pozbawione, zginęły. To wskazało na drogę, którą należy podążać w celu opracowania leku na wspomniany typ nowotworu. Sądzimy, że terapie nakierowane na blokowanie pobieraniu cholesterolu mogą być bardzo efektywne w walce z lekoopornymi formami chłoniaka anaplastycznego z dużych komórek. Naukowcy chcą teraz przejrzeć inne nowotwory pod kątem występowania podobnych słabości. « powrót do artykułu
  12. Po raz pierwszy znaleziono egzoplanetę, która przetrwała kolizję z inną planetą. A dowodem na prawdziwość badań, opublikowanych na łamach Nature Astronomy, ma być istnienie dwóch podobnych egzoplanet. Mowa tutaj o planetach w układzie Kepler-107. Znajduje się on w odległości 1700 lat świetlnych w Gwiazdozbiorze Łabędzia. Wspomniane planety to Kepler-107b i Kepler-107c. Mają one niemal identyczne rozmiary, średnica obu jest około 1,5 raza większa od średnicy Ziemi. A mimo to jednak z planet jest 3-krotnie bardziej masywna od drugiej. Położona bliżej gwiazdy macierzystej Kepler-107b ma masę około 3,5 mas Ziemi, tymczasem masa Kepler-107c to aż 9,4 mas Ziemi. To zaś oznacza, że Kepler-107b ma gęstość podobną do gęstości Ziemi czyli około 5,3 grama na centymetr sześcienny, natomiast gęstość Kepler-107c to aż 12,6 g/cm3. Tak gigantyczna różnica w gęstości stanowiła poważną zagadkę. Jak bowiem dwie planety o takiej samej wielkości i w niemal tej samej odległości od gwiazdy macierzystej mogą mieć tak różny skład prowadzący do tak różnej gęstości. Najpierw naukowcy zaczęli rozważać, to co wiedzieli na pewno. Już wcześniejsze badania wykazały, że intensywne promieniowanie z gwiazdy macierzystej może pozbawić pobliską planetę atmosfery. Jeśli jednak Kepler-107b straciłaby atmosferę to, uwzględniają fakt, że obie planety są takiej samej wielkości, to ona byłaby gęstsza. A tymczasem jest na odwrót. Istnieje jeszcze jeden sposób, w jaki planeta może stracić masę – zderzenie z inną planetą. I to właśnie, jak sądzą astronomowie, spotkało Kepler-107c. Specjaliści uważają, że w przeszłości w Kepler-107c uderzyła jakaś inna planeta. Wskutek zderzenia 107c straciła skorupę i płaszcz. Pozostało z niej tylko bardzo gęste jądro wielkości Kepler-107b. Z badań wynika, że przy tej gęstości Kepler-107c powinna w 70% składać się z żelaza. Jako, że masa i średnica Kepler-107c zgadza się tym, czego można było się spodziewać po wynikach zderzenia dwóch wielkich planet, naukowcy sądzą, że ich obliczenia i hipoteza są prawdziwe. Wciąż jednak pracują nad zdobyciem dowodów. Jeśli się to uda, będziemy mieli dowody na pierwszą znaną nam kolizję planet pozasłonecznych. « powrót do artykułu
  13. Własności kwantowe wydają się nam niezwykle egzotyczne nie bez powodu: naszymi zmysłami po prostu nie dostrzegamy ich w otaczającym nas świecie. Okazuje się jednak, że granica między egzotyczną rzeczywistością kwantową a tą klasyczną wcale nie musi być tak ostra, jak mogłoby się wydawać. Krakowscy naukowcy pokazali, że mogą istnieć stany kwantowe, które z jednej strony wykazują najbardziej charakterystyczne cechy kwantowe, a z drugiej są tak bliskie stanom klasycznym, jak tylko jest to możliwe w ramach mechaniki kwantowej. Świat codzienny, klasyczny, dramatycznie różni się od świata kwantów. W tym pierwszym w zasadzie wszystko da się precyzyjnie zmierzyć i przewidzieć. Każdy obiekt klasyczny istnieje tu w konkretnym miejscu przestrzeni, w konkretnym stanie, i nie jest zdolny do natychmiastowej reakcji na to, co się dzieje z innymi, oddalonymi od niego obiektami. Tymczasem w świecie kwantów zamiast pewności mamy tylko prawdopodobieństwo, obiekty mogą przebywać w różnych miejscach i stanach jednocześnie, a dzięki zjawisku splątania kwantowego wydają się natychmiast reagować na to, co się stało z ich dowolnie odległymi partnerami. Współpraca teoretyków z Instytutu Fizyki Jądrowej Polskiej Akademii Nauk (IFJ PAN) w Krakowie oraz matematyka z Instytutu Matematyki Uniwersytetu Jagiellońskiego (IM UJ) pozwoliła jednak wykazać, że oba światy mogą mieć ze sobą więcej wspólnego niż można byłoby przypuszczać. W publikacji zamieszczonej w zbiorze artykułów Coherent States and Their Applications: A Contemporary Panorama opisali oni wyjątkowe stany kwantowe układu dwóch cząstek, wykazujące jednocześnie cechy i klasyczne, i kwantowe. Powszechnie uważa się, że w świecie klasycznym efekty kwantowe są niezauważalne i opisując układ klasyczny można je bezpiecznie pominąć. Takie myślenie prowadzi do naiwnego poglądu, że jeśli coś zachowuje się klasycznie, to nie zachowuje się kwantowo – i odwrotnie. W rzeczywistości tak nie jest. Świat klasyczny jest światem układów złożonych z ogromnej liczby obiektów kwantowych, a jego obserwowalne na co dzień własności są, jak głosi zasada korespondencji, granicznym przypadkiem własności tych ostatnich. Zrozumienie natury tego przejścia granicznego nie jest proste i fizycy wciąż mają na tym polu wiele do zrobienia. W naszych rozważaniach zajęliśmy się problemem postawionym ponad 80 lat temu przez jednego ze współtwórców mechaniki kwantowej, Erwina Schrödingera. Chodzi o możliwość współistnienia w jednym układzie kwantowym własności oddzielnie uważanych za kwantowe bądź klasyczne. Spróbowaliśmy znaleźć odpowiedź na pytanie, czy mogą one występować naraz, czy też się wzajemnie wykluczają. Wspólnie z prof. dr. hab. Franciszkiem Szafrańcem z Instytutu Matematyki UJ wykazaliśmy, że w układzie dwóch cząstek kwantowych pewne cechy klasyczne i kwantowe rzeczywiście mogą pokojowo koegzystować, mówi dr hab. Katarzyna Górska (IFJ PAN). Sztandarową ilustracją nieintuicyjności świata kwantów jest słynna zasada nieoznaczoności Heisenberga. Mówi ona, że dla żadnej cząstki (dla prostoty o ustalonej masie) nie można jednocześnie zmierzyć z dowolną precyzją położenia i prędkości. Jeśli znamy dokładnie położenie cząstki, nie będziemy wiedzieli nic o jej prędkości; jeśli znamy dokładnie prędkość, nie będziemy potrafili wskazać położenia. Co więcej, niepewność pomiarów zależy od stanu, w którym znajduje się cząstka, a ponieważ cząstki kwantowe mogą być w różnych stanach, to i niepewności mogą być różne. Stany, w których zasada nieoznaczoności Heisenberga jest zminimalizowana, są nazywane koherentnymi i wykazują bardzo duże podobieństwo do stanów obserwowanych w układach klasycznych. Podstawową – i jednocześnie niezwykle ciekawą – własnością układów kwantowych jest ich zdolność do superpozycji, czyli przebywania w stanie będącym mieszaniną (kombinacją) pewnych szczególnych (a przy tym obserwowalnych) stanów zwanych bazowymi. W świecie klasycznym taka kwantowa superpozycja nie występuje, można ją jednak próbować sobie wyobrazić za pomocą dość intuicyjnego przykładu: monety wirującej na stole. Moneta jest tu w stanie przypominającym superpozycję dwóch stanów bazowych: orła i reszki. Możemy nawet dokonać "pomiaru", czyli docisnąć wirującą monetę do blatu (lub poczekać, aż zrobi to za nas grawitacja). Niszczymy wtedy superpozycję i moneta przeskakuje do jednego z dwóch, jak najbardziej klasycznych, stanów: leży ku górze albo orłem, albo reszką. Powyższa analogia jest dalece niepełna. Moneta jest obiektem klasycznym i gdy wiruje, orzeł i reszka cały czas istnieją niezmienione, moneta zaś jedynie nie potrafi wybrać między nimi. W układzie mamy więc tak naprawdę trzy istotnie różne stany, wyjaśnia dr hab. Andrzej Horzela (IFJ PAN). Tymczasem w superpozycji kwantowej jest tylko jeden stan. Przywołując analogię do wirującej monety powinniśmy w nim widzieć jakąś formę orłoreszki, a może reszkoorła. Coś, co umyka naszym wyobrażeniom, klasycznej intuicji, a może nawet zdrowemu rozsądkowi. A co zrobić, jeżeli nasz stan kwantowy jest na dodatek stanem koherentnym, a więc uważanym za najbliższy stanom klasycznym, w których zawsze mamy albo orła, albo reszkę? Splątanie jest uważane za najważniejszą oznakę kwantowości układu, koherentność – za cechę sygnalizującą bliskość klasyczności. Stany znalezione przez krakowskich fizyków są, przynajmniej w sensie matematycznym, jednocześnie i koherentne, i splątane w odniesieniu do całego układu obu cząstek. Stany kwantowe o podobnej naturze były rozważane już wcześniej. Wytwarzano je nawet doświadczalnie, zaczynając od dwóch stanów koherentnych, które następnie plątano. Tak otrzymany stan jest splątany, ale jako całość nie musi być koherentny. Nasze stany są skonstruowane w sposób zapewniający, że pozostają one jednocześnie koherentne (czyli minimalizują zasadę nieoznaczoności) i splątane. Zatem można je interpretować jako obiekty, które przejawiają własności z jednej strony bliskie klasyczności, a z drugiej uważane za typowo kwantowe. Przejawem ich kwantowości jest to, że opisują układ dwóch cząstek, których nie można rozdzielić nawet wtedy, kiedy cząstki te nie oddziałują ze sobą, tłumaczy dr Horzela. Wynik krakowskich naukowców ma charakter matematyczny. Pozostaje otwarte pytanie, czy znalezione stany można wytworzyć w laboratorium. Wydaje się, że nie istnieją żadne przeciwskazania, które mogłyby uniemożliwić ich istnienie. Ostateczną odpowiedź przyniesie jednak tylko doświadczenie. Eksperymentatorzy, zwłaszcza optycy kwantowi, mają więc szerokie pole do popisu. « powrót do artykułu
  14. AN12855, eksperymentalny antybiotyk na gruźlicę, jest skuteczniejszy niż izoniazyd, powszechnie używany lek przeciwgruźliczy, zaliczany do tzw. leków pierwszego rzutu. Badania na myszach wykazały, że ma słabszą tendencję do wywoływania lekooporności i dłużej pozostaje w tkankach, w których rezydują prątki gruźlicy, dzięki czemu efektywniej je uśmierca. Jak wyjaśnia prof. Gregory T. Robertson z Uniwersytetu Stanowego Kolorado, celem programów rozwoju leku na gruźlicę jest uzyskanie uniwersalnych schematów leczenia, które skrócą i uproszczą terapię, trwającą obecnie co najmniej 6 miesięcy, a w niektórych przypadkach nawet ponad rok. Izoniazyd jest prolekiem i musi być aktywowany przez katalazę bakteryjną KatG. Wiąże się z tym pewien problem - u niektórych Mycobacterium tuberculosis KatG jest niefunkcjonalna. Nie sprawia to, że prątki są mniej patogenne, uniemożliwia jednak działanie antybiotyku i stwarza warunki do rozwoju lekooporności. Izoniazyd wywiera bowiem napór selekcyjny, przez co na "polu bitwy" pozostają i namnażają się prątki z niefunkcjonalną katalazą. U ludzi bakterie są zamykane w przypominających cysty ziarniniakach. Są one pozbawione unaczynienia, co sprawia, że często lek do nich nie dociera. W większości mysich modeli gruźlicy do oceny skuteczności nowych leków nie udaje się odtworzyć tych zmian patologicznych. Nie można więc powiedzieć, jak lek zachowa się przy zaawansowanej chorobie płuc, jaką zwykle jest gruźlica człowieka. Porównując izoniazyd i AN12855, zespół Robertsona wykorzystał myszy, u których występowały ziarniniaki (model C3HeB/FeJ). Odkryliśmy, że leki bardzo się różniły pod względem zdolności do zabijania patogenów w silnie zmienionych chorobowo tkankach. AN12855 okazał się skuteczniejszy, bez tendencji do wywoływania dostrzegalnej lekooporności. To, że AN12855 wypadł lepiej, nie powinno dziwić, gdyż lek ten lepiej sobie radził z wnikaniem i pozostawaniem w ziarniniakach. Czy przekłada się to na poprawę terapii gruźlicy człowieka, ustalimy w ramach przyszłych badań. « powrót do artykułu
  15. Wysłanie człowieka na Marsa wymaga rozwiązania całego szeregu problemów technicznych, a jednym z nich jest samo lądowanie na Czerwonej Planecie. Dotychczas najcięższym obiektem, jaki udało się na niej posadowić jest ważący 1 tonę łazik Curiosity. Tymczasem wysłanie bardziej złożonej misji automatycznej czy w końcu ludzi, będzie wymagało przeprowadzenia miękkiego lądowania obiektu o masie od 5 do 20 ton. Christopher G. Lorenz i Zachary R. Putnam są autorami zamówionego przez NASA studium pt. „Entry Trajectory Options for High Ballistic Coefficient Vehicles at Mars”, które opublikowano w Journal of Spacecraft and Rockets. Zwykle lądujący obiekt wchodzi w atmosferę Marsa z prędkością około 30 Mach, szybko zwalnia, rozwija spadochrony, a na końcu ląduje za pomocą silników lub poduszek powietrznych. Niestety spadochrony nie skalują się dobrze wraz z rosnącą masą obiektu. Nowy pomysł polega na rezygnacji ze spadochronu i wykorzystaniu większych silników rakietowych, mówi profesor Zach Putnam z University of Illinois at Urbana-Champaign. Zaproponowana metoda zakłada, że gdy lądujący obiekt spowolni do prędkości Mach 3 zostaną uruchomione silniki hamujące o ciągu wstecznym, które na tyle go spowolnią, iż będzie mógł bezpiecznie wylądować. Problem jednak w tym, że manewr ten będzie wymagał dużej ilości paliwa. Paliwo to zwiększa masę misji, co z kolei czyni ją znacznie droższą, nie mówiąc już o tym, że to dodatkowe paliwo trzeba wynieść z powierzchni Ziemi, zużywając przy tym jeszcze więcej paliwa. Obecnie nie istnieje system rakietowy zdolny do wyniesienia takiej masy. Ponadto, co równie ważne, każdy kilogram paliwa oznacza kilogram mniej innego ładunku: ludzi, instrumentów naukowych, zaopatrzenia itp. itd. Gdy pojazd porusza się z prędkością ponaddźwiękową to jeszcze przed uruchomieniem silników tworzy się siła nośna, którą możemy wykorzystać do sterowania. Jeśli przesuniemy środek ciężkości pojazdu tak, by był on bardziej obciążony z jednej strony, poleci on pod innym kątem. Mamy pewną możliwość kontroli podczas wejścia w atmosferę, obniżania lotu i lądowania. Przy prędkości ponaddźwiękowej możemy użyć siły nośnej do sterowania. Po uruchomieniu silników możemy ich użyć do bardzo precyzyjnego lądowania. Mamy więc do wyboru, albo spalić więcej paliwa, by wylądować z jak największą precyzją, albo nie przejmować się precyzją, oszczędzić paliwo i wysłać tam jak najcięższy pojazd, albo też znaleźć złoty środek pomiędzy tymi rozwiązaniami, wyjaśnia Putnam. Zatem główne pytanie brzmi, jeśli wiemy, że będziemy uruchamiać silniki hamujące przy, powiedzmy, Mach 3, to jak powinniśmy sterować pojazdem by zużyć jak najmniej paliwa a zmaksymalizować masę ładunku. Wysokość, na jakiej uruchomimy silniki hamujące jest niezwykle ważna w celu maksymalizacji masy ładunku, jaką możemy wysłać. Ale również ważny jest kąt wektora prędkości pojazdu względem horyzontu, innymi słowy, jak ostro pojazd będzie nurkował, dodaje uczony. Putnam i Lorenz przeprowadzili wyliczenia, które dały odpowiedź na pytanie o sposób najlepszego użycia siły nośnej i optymalne techniki kontroli przy maksymalnej masie pojazdu w zależności od konfiguracji pojazdu, warunków atmosferycznych oraz szerokości geograficznej na jakiej będzie on lądował. Okazuje się, że najlepszym rozwiązaniem jest wejście w atmosferę tak, by wektor siły nośnej był skierowany w dół. Potem, w odpowiednim momencie, opierając się na czasie lub prędkości, należy podnieść wektor siły nośnej tak, by wyciągnąć pojazd z lotu nurkowego i żeby leciał on równolegle do planety na niskiej wysokości. Dzięki temu pojazd spędzi więcej czasu tam, gdzie atmosfera jest gęstsza, więc dodatkowo wyhamuje, dzięki czemu zaoszczędzimy paliwo potrzebne silnikom do lądowania. « powrót do artykułu
  16. Drzewa zapamiętują ekspozycję na ekstremalnie wysokie temperatury, dzięki czemu ich potomstwo i one same lepiej sobie radzą z kolejnymi falami upałów. Wg specjalistów z Macquarie University, uzyskane wyniki mają spore znaczenie dla odtwarzania ekosystemów i dla leśnictwa w dobie ocieplania klimatu. W odróżnieniu od zwierząt, które mogą się zagrzebać głębiej w ziemi albo uciec tam, gdzie jest chłodniej, rośliny tkwią w jednym miejscu, dlatego muszą być w stanie wytrzymać skrajne warunki in situ - podkreśla dr Rachael Gallagher. Zespół Gallagher badał, jak różne populacje siewek eukaliptusa wielkiego (Eucalyptus grandis) reagują, gdy przez 4 dni wystawi się je na oddziaływanie temperatur rzędu 42°C (symulację upału przeprowadzano w laboratorium). E. grandis porasta wschodnie wybrzeża Australii: od Newcastle w Nowej Południowej Walii po Cairns na północy Queensland. Jest też ważnym gatunkiem z plantacji leśnych w Australii, RPA czy Brazylii. Eksperymenty pokazały, że siewki rodziców, którzy przetrwali więcej gorących dni, lepiej sobie radziły z symulacją upałów, ponieważ wytwarzały więcej białek chroniących komórki przed stresem cieplnym. Wziąwszy pod uwagę funkcje, są to białka opiekuńcze (ang. molecular chaperones), które transportują inne białka do właściwych miejsc w komórce i pomagają w podtrzymaniu normalnych funkcji komórki w warunkach stresu. To ważne odkrycie. Wykazaliśmy, że rośliny dysponują molekularną pamięcią skrajnie wysokiej temperatury. Dzięki temu możemy ustalić, które populacje dostarczą najlepsze nasiona do odtworzenia ekosystemów i odpornego na temperatury leśnictwa przy temperaturach, które stają się coraz bardziej ekstremalne. « powrót do artykułu
  17. W Winton na środkowym zachodzie Queensland odkryto szlak tropów pozostawionych aż przez 3 dinozaury: zauropoda, teropoda i ornitopoda. O odkryciu poinformowała minister rozwoju turystyki Queenslad Kate Jones. Z ramienia Australian Age of Dinosaurs Museum pracami badawczymi kieruje dr Stephen Poropat z Uniwersytetu Technologicznego im. Geroge'a Swinburne'a w Melbourne. Paleontolog podkreśla, że sytuacja, by na tej samej powierzchni zachowały się tropy 3 głównych grup dinozaurów, jest skrajnie rzadka. Ślady małego ornitopoda i teropoda zostały pozostawione przez bardzo podobne, jeśli nie identyczne, zwierzęta, jak te, których tropy zachowały się w znajdującym się ok. 100 km na południe Dinosaur Stampede National Monument. Dr Poropat ujawnia, że najdłuższy ciąg tropów pozostawionych przez zauropoda ciągnie się nieprzerwanie na odcinku ponad 40 m. To najlepsze tego typu tropy w Australii [...]. Wokół wielu śladów widać koncentryczne pęknięcia; rozchodziły się one w miękkim podłożu pod wpływem ciężaru zwierzęcia. To niesamowite, że tak drobne szczegóły zachowały się tak dobrze po 95 mln lat. Tropów zauropoda nie da się przypisać żadnemu konkretnemu gatunkowi, mimo że w formacji Winton, która pokrywa dużą część środkowego zachodu Queensland, opisano 3 takie zwierzęta. Z pełnym przekonaniem możemy tylko stwierdzić, że był to zauropod z kladu Macronaria. David Elliott, który prowadził wykopaliska w kwietniu ubiegłego roku, powiedział, że odsłonięte ślady były bardzo delikatne i że ich wydobycie z koryta strumienia było dla Australian Age of Dinosaurs Museum priorytetem. Żmudna relokacja zaczęła się we wrześniu 2018 r. Objęła ona 25% całego obszaru, w tym tropy zagrożone zniszczeniem. Jeśli wszystko pójdzie zgodnie z planem, ekspozycja March of the Titanosaurs zostanie otwarta dla publiczności w maju 2020 r. « powrót do artykułu
  18. Na Wydziale Medycyny Indiana University dokonano przełomu na drodze do opracowania testu bólu, który na podstawie badań krwi pozwoliłby obiektywnie określić poziom bólu odczuwanego przez pacjenta. Na czele zespołu badawczego stoi profesor Alexander Niculescu. Wraz ze swoją grupą bada on setki pacjentów Richard L. Roudebush VA Medical Center pod kątem zidentyfikowania we krwi biomarkerów bólu. Opracowaliśmy prototypowy test, który w sposób obiektywny informuje lekarza, czy pacjenta coś boli i jak ostry jest to ból. Uzyskanie obiektywnych danych jest tutaj niezwykle ważne, gdyż ból jest uczuciem subiektywnym. Dotychczas trzeba było opierać się na tym, jak sam pacjent oceniał ból, mówi Niculescu. Jeśli prace się powiodą, będzie to pierwszy test tego typu. Opracowanie takiego testu pozwoliłoby przede wszystkim zahamować falę nadużywania środków przeciwbólowych. To zaś wiązałoby się z lepszym zdrowiem i lepszymi rokowaniami dla pacjenta. Epidemia nadużywania opioidów spowodowana jest przepisywaniem zbyt dużej ilości środków przeciwbólowych. To zaś spowodowane jest faktem, że nie istnieje obiektywny sposób pomiaru bólu i jego natężenia. Lekarze po prostu przepisują środki przeciwbólowe gdy pacjent sobie tego zażyczy. Teraz widzimy, że to spowodowało poważne problemy. Potrzebujemy alternatywy dla opioidów i precyzyjnego leczenia bólu. Opracowany przez nas test to umożliwia, mówi uczony. Nowy test pozwala zidentyfikować we krwi biomarkery świadczące o bólu i jego natężeniu, a następnie dopasować odpowiednie środki przeciwbólowe. Po ich przepisaniu można ponownie wykonać test i sprawdzić, czy sytuacja wróciła do normy. Odkryliśmy, że część środków, które są używane od dekad do leczenia zupełnie innych rzeczy najlepiej pasują do biomarkerów bólu. Byliśmy w stanie powiązać biomarkery z istniejącymi lekami oraz ze środkami naturalnymi i stwierdzić, że dzięki nim pacjent może zmniejszyć ilość przyjmowanych opioidów lub w ogóle z nich zrezygnować, dodaje Niculescu. W trakcie badań okazało się także, że biomarkery nie tylko mogą posłużyć do dobrania leku, ale pozwalają również przewidzieć, czy ktoś może doświadczyć bólu w przyszłości, a zatem czy pacjent może cierpieć na chroniczne bóle. Przede wszystkim chcieliśmy znaleźć uniwersalne biomarkery bólu i to nam się udało. Z uzyskanych danych wynika też, że niektóre biomarkery lepiej sprawdzają się w przypadku mężczyzn, a inne w przypadku kobiet. Może się okazać, że istnieją też biomarkery działające lepiej na ból głowy, inne na ból brzucha i tak dalej. Chcemy to zbadać w ramach szerzej zakrojonych studiów. « powrót do artykułu
  19. Naukowcy wykryli korelację między depresją a grupą produkujących neuroprzekaźniki bakterii z ludzkiego jelita. Najpierw zespół z Northwestern University i Argonne National Laboratory wyizolował KLE1738, bakterię, która wykazuje zaskakująco dużą zależność od kwasu γ-aminomasłowego (GABA). Związek drobnoustrojowego metabolizmu GABA ze zdrowiem psychicznym jest bardzo frapujący. Ogólna zdolność mikrobiomu do produkowania i/lub wykorzystywania GABA nie była wcześniej szerzej opisywana. O bakteryjnej zależności od GABA nigdy dotąd nie wspominano - podkreśla Jack Gilbert z Argonne National Laboratory. Z powodu unikatowych wymogów związanych ze wzrostem nikt nie donosił o hodowli KLE1738 - dodaje Philip Strandwitz z Northwestern University, który razem ze współpracownikami zaproponował nazwę dla tej bakterii - Evtepia gabavorous. Szerszy jej opis ukaże się w kolejnej publikacji. Jak wyjaśniają autorzy raportu z Nature Microbiology, KLE1738 znajdowała się na liście "najbardziej poszukiwanych" mikroorganizmów Narodowych Instytutów Zdrowia. Oznaczało to, że mimo dość dużej relatywnej częstości występowania w ludzkim jelicie, nikt jej jeszcze nie wyhodował; bakteria występowała w blisko 20% mikrobiomów z Integrated Microbial Next Generation Sequencing Database. Amerykanie podkreślają, że takich organizmów jest więcej, a nie udaje się ich wyhodować, gdyż wymagają czynników wzrostu zapewnianych przez inne bakterie w naturalnym środowisku, lecz nie w sztucznych warunkach laboratoryjnych. Naukowcom udało się wykazać, że KLE1738 potrzebuje do wzrostu Bacteroides fragilis, które występują pospolicie w ludzkim jelicie. Dalsze badania pokazały, że czynnikiem wzrostu produkowanym przez B. fragilis jest GABA. W czasie eksperymentów GABA był jedynym składnikiem odżywczym wspierającym wzrost KLE1738. W kolejnej fazie studium akademicy badali ewentualne powiązania między Bacteroides a depresją. W tym celu od 13 osób cierpiących na depresję pobrano próbki kału. Przeprowadzono też badania funkcjonalnym rezonansem magnetycznym (fMRI). Wykryto odwrotną zależność między relatywną liczebnością Bacteroides a funkcjonalną łącznością w części mózgu wykazującej podwyższoną aktywność w depresji. To oznacza, że niska liczebność bakterii wiązała się wysoką aktywnością tego obszaru i na odwrót. Naukowcy chcą powtórzyć wyniki w dodatkowej grupie ludzi. Badania, których wyniki ukazały się niedawno w pismach Science i Cell, wskazały na obecność neuronów czuciowych w jelicie. Byłoby wspaniale sprawdzić, czy mikrobiologiczny GABA może działać jako sygnał za pośrednictwem tego szlaku - emocjonuje się Anukriti Sharma z Argonne National Laboratory. « powrót do artykułu
  20. Z pisma Stroke, wydawanego przez American Heart Association dowiadujemy się, że kobiety po menopauzie, które piją dużo napojów dietetycznych dosładzanych sztucznymi słodzikami, narażają się na zwiększone ryzyko udaru z powodu zablokowanych arterii. To jedno z pierwszych badań mających na celu stwierdzenie, czy napoje dietetyczne zwiększają ryzyko udaru. Wykazało ono istnienie korelacji, ale nie wyjaśnia związku przyczynowo-skutkowego, gdyż było badaniem obserwacyjnym, bazującym na ankietach. Badanie wykazało jednak, że w porównaniu z kobietami, które wypijają mniej niż jeden napój dietetyczny tygodniowo lub nie piją takich napojów w ogóle, kobiety pijące co najmniej dwa tego typu napoje dziennie są narażone na 23% większe ryzyko udaru krwotocznego, 31% większe ryzyko udaru niedokrwiennego, o 29% zwiększone ryzyko ataku serca oraz o 16% zwiększone ryzyko śmierci z dowolnej przyczyny. Autorzy badań zauważyli też, że ryzyko jest różne dla różnych kobiet. Na przykład w przypadku kobiet bez wcześniejszej historii chorób serca i cukrzycy ryzyko zablokowania jednego z małych naczyń krwionośnych w mózgu i udaru było o 244 procent większe. W przypadku kobiet otyłych bez cukrzycy i chorób serca ryzyko zwiększało się o 203%. Wiele osób, szczególnie otyłych, pije sztucznie słodzone napoje by obniżyć liczbę kalorii w diecie. Nasze badania i inne badania obserwacyjne wskazują, że takie napije są szkodliwe, a spożywanie ich dużej ilości wiąże się ze zwiększonym ryzykiem udaru mózgu i chorób układu krążenia, mówi główna autorka badań, profesor Yasmin Mossavar-Rahmani z Albert Einstein College of Medicine. Naukowcy przeanalizowali dane dotyczące 81 714 kobiet, które w momencie rozpoczęcia badań miały od 50 do 79 lat. Losy pań śledzono średnio przez 11,9 roku. Kobiety były pytane, jak często napoje dosładzane syntetycznymi słodzikami. Nie zbierano informacji na temat rodzaju słodzika. W badaniach uwzględniono inne czynniki ryzyka udaru i chorób serca, takie jak wiek, zbyt wysokie ciśnienie krwi czy palenie papierosów. Naukowcy zastrzegają, że uzyskane wyniki nie mogą być przekładane na mężczyzn czy młodsze kobiety. American Heart Association od pewnego czasu zwraca uwagę na niedostateczną liczbę badań nad wpływem sztucznych słodzików na choroby serca i udary u dzieci, nastolatków i dorosłych. Na ten temat w ogóle prowadzi się zbyt mało badań, nie mówiąc już o badaniach nad poszczególnymi rodzajami słodzików. Nie można bowiem wykluczyć, że jedne z nich są mniej szkodliwe niż inne. Ekspert organizacji, profesor Rachel K. Johnson, podkreśla, że najlepszym wyborem dla osób chcących spożywać napój z ograniczoną ilością kalorii jest woda. Jednak niektórzy dorośli mogą mieć problemy z uczynieniem z wody swojego podstawowego napoju. W takim wypadku niskokaloryczne napoje dosładzane sztucznymi słodzikami mogą być pomocne. Pod warunkiem jednak, że będą używane przez krótki czas. Jako, że brakuje długoterminowych badań nad używaniem takich napojów, to biorąc pod uwagę fakt, że nie mają one większych właściwości odżywczych, rozsądnym jest używanie ich jedynie przez jakiś czas, stwierdza Johnson. « powrót do artykułu
  21. Po 15 latach pracy misja łazika Opportunity dobiegła końca, oświadczyła NASA.Tym samym uznano, że z łazikiem nie uda się już nawiązać kontaktu. Opportunity przestał komunikować się z Ziemią w czasie potężnej burzy piaskowej, która przykryła znaczną część Marsa w czerwcu 2018 roku. Po tym, jak do łazika wysłano ponad tysiąc komend w nadziei ponownego nawiązania kontaktu, inżynierowie ze Space Flight Operations Facility w Jet Propulsion Laboratory uznali, że łazik został utracony. Ostatni sygnał z Opportunity odebrano 10 czerwca. Nasi astronauci będą mogli pewnego dnia spacerować po powierzchni Marsa dzięki takim niezwykłym misjom jak ta przeprowadzona przez Opportunity. A gdy ten dzień nadejdzie, ślad pierwszego człowieka na Marsie będzie częścią dziedzictwa ludzi pracujących przy Opportunity, stwierdził dyrektor NASA Jim Bridenstine. Opportunity miał pracować na Marsie przez 90 dni, w czasie których miał przejechać 1000 metrów. Łazik zaskoczył swoich twórców. Pracował przez niemal 15 lat i przebył 45 kilometrów. W końcu zamilkł w płytkim kanale Perseverance Valley na wewnętrznym zboczu zachodniej krawędzi Krateru Endeavour. Przez osiem kolejnych miesięcy specjaliści próbowali nawiązać kontakt z łazikiem. Spróbowaliśmy każdego możliwego rozwiązania, by uruchomić Oppportunity. W końcu stwierdziliśmy, że szanse na nawiązanie łączności są zbyt małe, by nadal próbować, oświadczył John Callas, menedżer projektu Mars Exploration Rover. Opportunity wylądował 24 stycznia 2004 roku na Meridiani Planum. Podróż zajęła mu 7 miesięcy. Dwadzieścia dni wcześniej po przeciwnej stronie Czerwonej Planety zameldował się bliźniaczy Spirit. Spirit zamilkł w maju 2011 roku po przebyciu 8 kilometrów. W czasie swojej misji Opportunity ustanowił m.in. rekord długości trasy przebytej w ciągu 1 dnia przez łazik marsjański. W dni 20 marca 2005 roku przebył 220 metrów. Przez te 15 lat łazik przysłał na Ziemię ponad 217 000 zdjęć, w tym 15 kolorowych panoram obejmujących widok 360 stopni. Opportunity oczyścił i zbadał powierzchnię 52 skał i 72 innych elementów. Jego najważniejszym osiągnięciem jest dostarczenie mocnych dowodów, że na Marsie płynęła niegdyś woda. Nad łazikiem kilkukrotnie zawisło poważne niebezpieczeństwo. W samym tylko 2005 roku Opportunity stracił sterowanie w jednym ze swoich przednich kół, doszło do awarii urządzenia odpowiedzialnego za zapewnianie energii, niemal też nie ugrzązł na dobre w piasku. W 2007 roku trwająca dwa miesiące burza piaskowa zagroziła utratą łazika. W 2015 zepsuła się 256-megabajtowa pamięć flash, a w 2017 awarii uległo drugie z przednich kół. Za każdym jednak razem zespół odpowiedzialny za łazik znajdował rozwiązanie problemu i można było kontynuować misję. Burza z lata 2018 okazała się jednak zbyt potężna i zakończyła misję Opportunity. Ludzkość kontynuuje jednak badania Marsa. Na powierzchni planety od sześciu lat pracuje łazik Curiosity, przed trzema miesiącami wylądowała misja InSight, która dopiero rozpoczyna badania naukowe. W lipcu przyszłego roku zostaną wystrzelone aż dwie misje. Jedna z nich to przygotowana przez NASA Mars 2020, a druga to ExoMars Europejskiej Agencji Kosmicznej. W ramach obu na Czerwoną Planetę trafią łaziki. Będą to pierwsze łaziki, których zadaniem będzie poszukiwanie na Marsie śladów mikroorganizmów. « powrót do artykułu
  22. Wysoko chmielone piwa składające się tylko z polskich składników, przygotowane z wykorzystaniem zapomnianych odmian rodzimego chmielu opracowuje naukowiec z Uniwersytetu Rolniczego w Krakowie. Przygotowana technologia ma być również przyjazna dla środowiska. Według szacunków rocznie na świecie produkowanych jest ok. 2 mld hektolitrów piwa, czyli ok. 60 butelek na każdego mieszkańca Ziemi. Najwięcej piwa - ok. 140 l rocznie na osobę - wypijają Czesi, Polacy - ok. 100 l na osobę. Dr inż. Marek Zdaniewicz z Uniwersytetu Rolniczego w Krakowie przypomina, że bardzo długo - aż do 2011 r. na polskim rynku dominowały piwa w stylu lager. To mniej aromatyczne napoje. Chmielenie, które nadaje aromat temu piwu, jest delikatne. Inaczej jest w przypadku piw przygotowywanych w stylu ale, produkowanych w górnej fermentacji. To m.in. coraz bardziej popularne piwa pszeniczne czy np. Indian Pale Ale - opowiada PAP dr inż. Marek Zdaniewicz. Naukowiec rozpoczął właśnie prace nad opracowaniem typowo polskich rodzajów piwa w ramach piwnego stylu ale. Robi to wraz z interdyscyplinarnym zespołem, w którego skład wchodzą chemik, mikrobiolog, inżynier i technolog. Opracowanie technologii wytwarzania typowo polskich stylów piwa jest bardzo ambitnym przedsięwzięciem, głównie od strony naukowej i jej praktycznego zastosowania. Dotychczas w badaniach bardzo mało uwagi poświęcało się polskim, wysoko chmielonym stylom piwnym - uważa Zdaniewicz. Piwa wysoko chmielone nie są zbyt powszechne, bo wymagają bardziej czasochłonnego procesu obróbki, co jest wynagrodzone głębszym aromatem. Priorytetem dla Zdaniewicza jest wykorzystanie na końcowym etapie warzenia piwa polskich odmian chmielu zwyczajnego, m.in. Marynki, Izabelli czy Oktawii. Są też inne, stare, niemal zupełnie zapomniane odmiany, które staramy się pozyskiwać od plantatorów - dodaje naukowiec. Chcemy, aby wyniki naszych prac miały wpływ na poprawę walorów smakowych piwa - zapewnia naukowiec. Zdaniewicz uważa, że naukowcy powinni współpracować w kwestii opracowania nowych piw z piwowarami. Trudno wyobrazić sobie, aby duży koncern, bądź niewielki browar, często w trakcie piwnego sezonu, rozpoczął realizację badań nad nowym stylem piwnym, wykorzystując swoje instalacje produkcyjne. Na to możemy sobie pozwolić w naszych laboratoriach, gdzie dysponujemy liniami pilotażowymi do wytwarzania piwa - dodaje. Naukowiec podkreśla, że ważnym aspektem jego badań dotyczących produkcji piwa jest taka technologia produkcji, która nie będzie powodować zbyt dużej ilości zanieczyszczeń w postaci ścieków. Moje badania przyczynią się do wprowadzenia ekoinnowacji w zakładach piwowarskich - zapewnia. Niewielka ilość aktualnej, polskiej literatury piwowarskiej powoduje, że często entuzjaści piwa mają ograniczone możliwości poszerzania swojej wiedzy. W związku z tym na stronie internetowej projektu znajdą się jeszcze w tym roku praktyczne informacje nie tylko dla przedsiębiorców, ale też dla pasjonatów złocistego trunku - opowiada Zdaniewicz. Bardziej zaawansowany know-how związany z użytymi technologiami będzie z kolei udostępniany na zasadzie licencji. Niemal każdego dnia w Polsce ma miejsce premiera ok. 3 nowych piw. W powstawaniu tak dużej liczby nowych rodzajów złocistego trunku mają swój udział zarówno niewielkie browary restauracyjne, średniej wielkości browary kraftowe czy rzemieślnicze, jak i potężne koncerny piwowarskie - opowiada. Dodaje, że polskie chmielarstwo zajmuje bardzo wysoką pozycję na świecie. Nasz chmiel pozostaje jednak wciąż nieprzebadany, a jego potencjał niedoceniony – uważa naukowiec. Zdaniewicz od lat zajmuje się tematyką piwowarstwa. Na potrzeby przygotowywanego doktoratu pracował w browarze w Żywcu, a później na Uniwersytecie Leuven w Belgii, gdzie działał na znacznie mniejszych warzelniach, a później również na Uniwersytecie Stanforda. Na najnowsze badania otrzymał grant finansowany przez Narodowe Centrum Badań i Rozwoju w ramach programu Lider. « powrót do artykułu
  23. Bogata w cukier i tłuszcze zachodnia dieta zwiększa ryzyko ciężkiej sepsy i zgonu. Zespół Brooke Napier, która obecnie pracuje na Portland State University, prowadził eksperymenty na myszach. Okazało się, że u gryzoni, którym podawano karmę wzorowaną na zachodniej diecie (ubogą w błonnik, ale zawierającą dużo sacharozy i tłuszczu), nasilał się przewlekły stan zapalny. W ich przypadku wywołana lipopolisacharydem (LPS) sepsa miała cięższy przebieg, a współczynnik zgonów był wyższy niż u zwierząt trzymanych na standardowej, bogatej we włókna karmie (SD). Napier uważa, że wyniki sugerują, że myszy miały cięższą posocznicę i umierały szybciej z powodu diety (a właściwie jej bezpośredniego oddziaływania na wrodzony system odporności za pomocą nieznanego mechanizmu), a nie z powodu wzrostu wagi czy działania mikrobiomu. Układ odpornościowy myszy na zachodniej diecie (WD) wyglądał i działał inaczej. Wydaje się, że dieta manipuluje funkcjonowaniem komórek odpornościowych, przez co rośnie podatność na sepsę. Kiedy zaś posocznica już się rozwinie, zgon następuje szybciej. Doktor Napier dodaje, że wyniki jej zespołu mogą pomóc szpitalom lepiej monitorować dietę pacjentów na oddziałach intensywnej opieki medycznej, którzy i tak są już bardziej podatni na sepsę. Jeśli wiesz, że dieta obfitująca w tłuszcz i cukry koreluje z podwyższoną podatnością na sepsę i zwiększoną umieralnością, to gdy ktoś znajduje się na OIOM-ie, możesz się upewnić, że spożywa właściwe tłuszcze i że stosunek tłuszczów do innych składników diety jest prawidłowy. Wprowadzając interwencję dietetyczną podczas pobytu chorego na oddziale intensywnej opieki medycznej, by zmniejszyć prawdopodobieństwo [niekorzystnego] oddziaływania na układ odpornościowy od tej strony, można w pewien sposób poprawić jego rokowania. Akademicy zauważyli, że myszy z grupy WD miały silniejszy wyjściowy stan zapalny (ang. metaflammation) oraz wykazywały objawy wywołanego sepsą stanu paraliżu immunologicznego. W porównaniu do gryzoni z grupy SD, w ich krwi występowała też zwiększona liczebność neutrofilów. Niektóre z nich miały "postarzały" fenotyp. Co istotne, autorzy publikacji z pisma PNAS mogli przewiedzieć rokowania, śledząc specyficzne, zależne od WD czynniki, np. hipotermię czy wspomnianą częstotliwość neutrofili. Wiele wskazuje na to, że zachodnia dieta reprogramuje podstawowy status immunologiczny oraz ostrą reakcję na wywołaną LPS sepsę. Obecnie ekipa Napier sprawdza, czy konkretne tłuszcze z wysokotłuszczowej wpływają na działanie komórek odpornościowych. « powrót do artykułu
  24. Stonehenge to najsławniejsza z europejskich struktur megalitycznych, ale nie jest jedyną. Na Starym Kontynencie istnieje około 35 000 takich budowli, które były wznoszone mniej więcej w latach 4500–2500 przed Chrystusem. Istnieją dwie konkurencyjne hipotezy dotyczące początku budowy megalitów w Europie. Jedna z nich powstała na przełomie XIX i XX wieku. Mówi ona, że do Europy megality trafiły z jednego źródła na Bliskim Wschodzie i rozprzestrzeniły się one w basenie Morza Śródziemnego oraz wzdłuż wybrzeża Atlantyku. W latach 70. XX wieku na podstawie danych z datowania radiowęglowego stworzono hipotezę o niezależnym rozwoju megalitów w różnych miejscach Europy. Hipoteza ta dominuje do dnia dzisiejszego. Większość takich konstrukcji, które powstały podczas epoki kamienia i miedzi znajduje się w pobliżu wybrzeży. Spotykamy je w Szwecji, Danii, Niemczech, Holandii, Belgii, Szkocji, Anglii, Walii, Irlandii, północno-zachodniej Francji, północnej Hiszpanii i Portugalii oraz w regionie Morza Śródziemnego, od południowych wybrzeży Hiszpanii i Francji, poprzez Korsykę, Sardynię, Sycylię, Maltę, Baleary, Włochy a nawet Szwajcarię. Co interesujące, dzielą one wiele podobnych lub nawet identycznych cech. W całej Europie megalityczne grobowce są zorientowane na wschód lub południowy-wschód. Naukowcy z Uniwersytetu w Göteborgu postanowili rozstrzygnąć ten spór. Wykorzystali metody statystyczne do analizy 2410 zestawów danych z datowania radiowęglowego europejskich megalitów. Dane te sugerują, że megality pojawiły się bardzo szybko, w ciągu 200–300 lat w drugiej połowie piątego tysiąclecia przed Chrystusem w północno-zachodniej Francji, basenie Morza Śródziemnego i atlantyckiego wybrzeża Półwyspu Iberyjskiego. Znaleźli dowody na poparcie hipotezy, że megality rozpowszechniły się drogą morską, a proces ten przebiegał w trzech fazach. Z badań Szwedów wynika, że pierwszymi megalitycznymi grobowcami na terenie Europy były niewielkie zamknięte struktury lub dolmeny wybudowane na powierzchni. Miały one kamienne płyty i były przykryte okrągłym lub podłużnym kopcem z ziemi lub kamieni. Groby takie pojawiły się około roku 4770 przed naszą erą i w ciągu 200–300 rozprzestrzeniły się w północno-zachodniej Francji, Wyspach Normandzkich, Katalonii, południowo-zachodniej Francji, Korsyce i Sardynii. Biorąc zaś pod uwagę związki kulturowe do tej pierwsze fazy należy też prawdopodobnie zaliczyć groby z Andaluzji, Galicji i północnych Włoch. Dla tych grobowców brakuje datowania radiowęglowego lub jest ono bardzo niepewne. Z wymienionych powyżej regionów jedynie w północno-zachodniej Francji monumentalne konstrukcje ziemne istniały przed megalitami. W nekropolii Passy w Basenie Paryskim występują imponujące struktury o długości 280 metrów, które nie mają jeszcze megalitycznej komory. To najprawdopodobniej najstarsze monumentalne grobowce Europy. Pierwsza pochowana w nich osoba zmarła około roku 5029 przed Chrystusem. Około 300 lat później pojawiają się w Bretanii, przede wszystkim w regionie Carnac, pierwsze monumentalne grobowce, gdzie zmarłych chowano w kamiennych skrzyniach umieszczonych w komorach. Pierwsze tego typu struktury pochodzą mniej więcej z roku 4724 przed naszą erą. W tym samym mniej więcej czasie w Bretanii powstają najstarsze znane pochówki megalityczne z Tumiac, Kervinio, Castellic czy Mane Hui. Nie dysponujemy datowaniem radiowęglowym tych zabytków, a ich wiek można ocenia jedynie na podstawie przedmiotów złożonych w grobach oraz datowaniu tych przedmiotów. Budowle megalityczne pojawiają się z czasem w całej Europie, w końcu w drugiej połowie IV tysiąclecia trafiają one do północnych Niemczech i południowej Skandynawii. W drugim milenium dochodzi do odrodzenia zainteresowania megalitami na Balearach, w Apulii i na Sycylii. Z przeprowadzonych analiz wiemy zatem, że pierwsze megality pojawiły się w Europie w ciągu 200–300 lat w północno-zachodniej Francji, basenie Morza Śródziemnego oraz atlantyckim wybrzeżu Półwyspu Iberyjskiego. Jako, że wcześniej monumentalne struktury istniały jedynie w północno-zachodniej Francji, szwedzcy naukowcy uważają, że to właśnie Bretania jest ojczyzną europejskich megalitów. Rozpowszechnienie się tego typu budowli zbiegło się z innymi społecznymi i ekonomicznymi zmianami zachodzącymi w neolicie i epoce miedzi. Szwedzi potwierdzili więc częściowo starszą z hipotez, gdyż megality rzeczywiście rozpowszechniły się drogą morską, jednak ich źródłem, jak się okazuje, nie był Bliski Wschód, a Bretania. « powrót do artykułu
  25. Analizując reakcje komórek nabłonka gruczołu mlekowego na zmieniającą się sztywność hydrożelu, bioinżynierowie z Uniwersytetu Kalifornijskiego w San Diego odkryli, że kilka szlaków współdziała ze sobą, sprzyjając przekształceniu komórek piersi w komórki rakowe. Wyniki opublikowane na łamach Proceedings of the National Academy of Sciences (PNAS) mogą stanowić inspirację dla nowych metod leczenia pacjentek i hamowania wzrostu guzów. Dynamicznie modulując sztywność mikrośrodowiska, możemy lepiej odtwarzać w laboratorium procesy zachodzące podczas transformacji komórek sutka w komórki złośliwe - podkreśla prof. Adam Engler. Od jakiegoś czasu wiadomo, że w rozwoju i rozprzestrzenianiu nowotworu ważną rolę odgrywają nie tylko sygnały genetyczne i biochemiczne, ale i siły mechaniczne. W przeszłości wykazano, że modelowanie sztywnego środowiska in vitro sprzyja wzrostowi guzów. Często jednak modele te nie odtwarzają w pełni tego, co się dzieje w ciele, bo są statyczne. Sztywnienie tkanek jest zaś procesem dynamicznym [...]. Zespół Englera stworzył więc system, w którym sztywność może być dynamicznie dostrajana. Później trzeba patrzeć, jak komórki reagują na zmiany sztywności. Próbujemy odtworzyć proces włóknienia podczas postępującego rozwoju guza - tłumaczy dr Jesse Placone. Podczas testów zastosowano hydrożel (materiał na bazie kwasu hialuronowego), który można było w różnym stopniu utwardzać za pomocą wolnych rodników i ultrafioletu. Na początku hydrożel utwardzono w takim stopniu, by oddawał sztywność zdrowej tkanki. Później w żelu hodowano komórki nabłonka gruczołu mlekowego (ang. mammary epithelial cells, MEC). Gdy komórki dojrzały, sztywność zwiększano do poziomu występującego w raku sutka. Jak podkreślają Amerykanie, dawka UV, jaka była do tego konieczna, nie uszkadzała komórek. Okazało się, że sztywnienie aktywowało kilka szlaków, które łącznie sygnalizowały MEC, by stały się komórkami rakowymi. Kluczowymi "graczami" były białka: TWIST1, TGF-beta, SMAD i YAP. Zauważyliśmy, że w dynamicznym środowisku te różne szlaki współdziałają. Nie wystarczy zahamowanie jednego z nich, jak wcześniej wykazano w badaniach polegających na modelowaniu statycznych sztywnych środowisk. Z klinicznego punktu widzenia sugeruje to, że terapia monolekowa może się nie sprawdzić u wszystkich chorych z rakiem piersi. Naukowcy odkryli też, że subpopulacja komórek gruczołu mlekowego nie reaguje na sztywnienie. Wg Englera, to dobra wiadomość, gdyż w wyniku samych oddziaływań środowiska przemianę nowotworową przejdzie mniej komórek niż dotąd sądzono. Jeśli efekt ten występuje także u chorych, może to oznaczać mniejszą liczbę albo mniejsze gabaryty guzów pierwotnych. W niedalekiej przyszłości zespół chce poszukać substancji, które mogłyby hamować zidentyfikowane szlaki i sprawdzić, jak wpływają one na rozwój guza. « powrót do artykułu
×
×
  • Dodaj nową pozycję...