-
Liczba zawartości
37640 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
247
Zawartość dodana przez KopalniaWiedzy.pl
-
Dwudziestego drugiego kwietnia dzieci, które chciały zbudować bazę na skraju wsi, odkryły w Mierkowie (woj. lubuskie) grób ciałopalny sprzed ok. 2,5 tys. lat. Jak podkreślił mgr Marcin Aleksander Kosowicz, starszy inspektor ochrony zabytków w Wojewódzkim Urzędzie Ochrony Zabytków w Zielonej Górze, mając świadomość, że to coś dawnego, dzieci powiadomiły nauczyciela historii z Lubska, który zabezpieczył zabytki oraz miejsce odkrycia i powiadomił służby konserwatorskie. Wg wstępnych ustaleń, dzieci odkryły grób grupy białowickiej kultury łużyckiej z okresu halsztackiego D. W skład grobu wchodziły jajowaty garnek (popielnica), misa nakrywająca popielnicę, duży kubek z taśmowatym uchem, a także dwa czerpaki i miniaturowe naczynie. W trakcie eksploracji wysypano przepalone ludzkie szczątki; zostały zebrane do osobnego pojemnika. W komunikacie Urzędu poinformowano, że dotąd cmentarzysko nie było ujęte w wojewódzkiej ewidencji zabytków, ale ponoć już w latach 70. ubiegłego stulecia mieszkańcy Mierkowa natrafiali w trakcie wydobywania piasku na zabytki archeologiczne. By zweryfikować te doniesienia, trzeba będzie przeprowadzić kwerendę archiwalną. Grupa białowicka kultury łużyckiej, przez badaczy niemieckich traktowana jako osobna jednostka taksonomiczna (niem. Billendorfer Kultur), funkcjonowała na obszarze dorzecza pomiędzy Łabą, Nysą Łużycką i Odrą od V okresu epoki brązu do początkowych faz okresu lateńskiego (około 800-450 p.n.e.). Najbardziej znanym stanowiskiem archeologicznym tego ugrupowania są pozostałości osady obronnej w Wicinie oraz liczne cmentarzyska [...] - wyjaśnia Kosowicz. Specjaliści zapowiadają przeprowadzenie ratunkowych badań archeologicznych. Ich celem ma być zabezpieczenie ewentualnych zabytków przeoczonych przez dzieci i naukowe opracowanie grobu. « powrót do artykułu
-
- Mierków
- gmina Lubsko
-
(i 6 więcej)
Oznaczone tagami:
-
Globalne ocieplenie powoduje... zmianę położenia biegunów
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
Chińsko-duński zespól naukowy poinformował, że od 1995 roku topniejące lodowce wpływają na ruch obrotowy Ziemi. Na podstawie danych satelitarnych oraz modelowania komputerowego naukowcy wykazali, że w 1995 roku oba bieguny przemieszczają się na wschód, a proces ten jest napędzany przez topniejące lodowce. Naukowcy wiedzą, że topnienie się lodowców wskutek globalnego ocieplenia ma wpływ na lokalizację biegunów, sądzili jednak, że proces ten trwa od 2005 roku. Wspomniane powyżej badania wskazują, że proces ten rozpoczął się co najmniej dekadę wcześniej niż go zauważono. Chińczycy i Duńczycy opracowali model, który pozwala na badanie zależności położenia biegunów i rozkładu wód na powierzchni lądów. Ziemia obraca się wokół osi, która przebiega przez geograficzne – czyli rzeczywiste – bieguny. Lokalizacja biegunów nie jest stała, gdyż Ziemia nie jest sztywnym obiektem i dochodzi na niej do zmian rozkładu masy. Wtedy też zmienia się położenie biegunów. Część z tych zmian przebiega w skali około roku i ma związek z krótkoterminowymi zjawiskami jak np. zmiany prądów oceanicznych czy ciśnienia atmosferycznejo. Jednak naukowcy wykryli też zmiany spowodowane, jak sądzą, odkształcaniem się powierzchni planety w miejscach, w których na skorupę ziemską naciskały niegdyś masy lodu. Gdy lodu ubywa dochodzi do unosznia się skorupy uwolnionej od nacisku. To proces długoterminowy. W roku 2013 Jianli Chen i jego koledzy z University of Texas wykazali, że zmiana pozycji biegunów, która rozpoczęła się w 2005 roku została spowodowana topnieniem lodowców i podnoszeniem się poziomu oceanów. W czasie swoich badań korzystali z danych dostarczanych przez amerykańsko-niemiecką misję GRACE (Gravity Recovery and Climate Experiment). Składa się ona z dwóch satelitów znajdujących się na tej samej orbicie, oddalonych od siebie o około 200 kilometrów. Gdy satelity przelatują nad jakimś znaczącym elementem planety, jak góra czy lodowiec, odczuwają rejestrują lokalne zmiany pola grawitacyjnego Ziemi powodowane przez masę obiektu. Te zmiany pola wpływają na odległość pomiędzy satelitami, którą można precyzyjnie mierzyć. W ten sposób misja GRACE pozwala na dokładne określenie kształtu Ziemi i monitorowanie zmian w poziomie oceanów, lodowcach czy masach wód podziemnych. Znaczące przesuwanie się biegunów na wschód zauważono już w połowie lat 90. ubiegłego wieku. Jednak dopiero misja GRACE pozwoliła na powiązanie tego zjawiska z topniejącymi lodowcami. Naukowcy z Chin i Danii po wykonaniu analiz i obliczeń dla okresu sięgającego roku 1981 oraz po uwzględnieniu różnych czynników, jak np. pozyskiwanie przez ludzi wód podziemnych, stwierdzili, że wędrówka biegunów na wschód rozpoczęła się w 1995 roku, a jej główną przyczyną jest topnienie lodów na biegunach. Jednak nie tylko. Jako, że rozmiaru tego przemieszczania się nie da się wyjaśnić samym ubytkiem lodu, naukowcy sądzą, że za ruch biegunów odpowiada też pozyskiwanie wód gruntowych na średnich szerokościach geograficznych, głównie w Kalifornii, Teksasie, okolicach Pekinu i w północnych Indiach. Z obliczeń wynika, że średnia prędkość przemieszczania się biegunów w latach 1995–2020 wynosiła około 3 mm/rok. To aż 17-krotnie szybciej niż średnia prędkość dla lat 1981–1995. Mimo, że zmiana prędkości jest olbrzymia, nie zauważamy jej w codziennym życiu. Prowadzi ona np. do zmiany długości doby liczonej w milisekundach. Jako, że naukowcy monitorują zmiany biegunów od 176 lat, autorzy najnowszych badań chcą wykorzystać historyczne dane do zbadania wzorców pozyskiwania wód gruntowych przez człowieka w XX wieku. « powrót do artykułu-
- globalne ocieplenie
- topnienie lodowców
-
(i 1 więcej)
Oznaczone tagami:
-
Wszystkie mózgi kurczą się wraz z wiekiem. Dominujący pogląd mówi, że im wyższy poziom wykształcenia danej osoby, tym wolniej przebiega proces kurczenia się mózgu. dotychczas jednak przeprowadzone badania nie dawały jednoznacznej odpowiedzi wskazującej, czy pogląd taki jest prawdziwy. Aż do teraz. Badacze z Norweskiego Instytutu Zdrowia Publicznego przyjrzeli się wynikom badań rezonansem magnetycznym mózgów ponad 2000 osób. Uczestników eksperymentu badano trzykrotnie w ciągu 11 lat. To właśnie czyni te badania wyjątkowymi. To długotrwałe studium na dużą skalę, powtórzone na dwóch niezależnych próbkach, jedno z największych tego typu, mówi Lars Nyberg. W badaniu wzięły udział osoby w wieku 29–91 lat. Porównywano tempo kurczenia się hipokampu i kory mózgowej u osób, które przed 30. rokiem życia studiowały z osobami, które nie studiowały. Okazało się, że mózgi wszystkich osób, niezależnie od poziomu wykształcenia, kurczyły się w podobnym tempie. Co prawda zauważono, że, które studiowały, miały większą pojemność kory mózgowej w kilku miejscach, ale tempo kurczenia się tych miejsc nie było uzależnione od kontaktu z wyższą edukacją. Naukowcy podkreślają, że podobne tempo kurczenie się mózgu nie oznacza, że poziom wykształcenia nie ma znaczenia dla tego organu i naszego zdrowia. Jeśli ludzie z wyższym poziomem wykształcenia mają większe mózgi, to ten fakt może odwlekać w czasie wystąpienie demencji i innych objawów związanych z pogarszającym się funkcjonowaniem poznawczym", stwierdzają naukowcy. Podstawowy wniosek z badań jest jednoznaczny – tempo kurczenia się mózgów ludzi jest podobne, niezależne od tego, jak długo się uczyli. Wyniki badań opublikowano na łamach PNAS. « powrót do artykułu
- 11 odpowiedzi
-
Marsjański śmigłowiec Ingenuity odbył 3. lot w atmosferze Czerwonej Planety. Tym razem nie skończyło się, jak podczas dwóch poprzednich lotów, jedynie na wzniesieniu się, zawiśnięciu i lądowaniu. Urządzenie odbyło też lot w poziomie. Była to pierwsza próba prędkości i zasięgu. Ingenuity poleciał dalej i szybciej niż podczas testów na Ziemi. Podczas pierwszego historycznego lotu w atmosferze Marsa Ingenuity wzniósł się na wysokość 3 metrów, zawisł nad powierzchnią i wylądował. W czasie drugiego lotu śmigłowiec znalazł się na wysokości 5 metrów nad powierzchnią. Przed dwoma dniami, 25 kwietnia, śmigłowiec wzniósł się na wysokość 5 metrów, a następnie przeleciał 50 metrów, osiągając maksymalną prędkość 2,2 m/s czyli niemal 8 km/h. Teraz zespół odpowiedzialny za śmigłowiec analizuje przysłane dane. Przydadzą się one nie tylko podczas kolejnych lotów Ingenuity, ale mogą również posłużyć przyszłym marsjańskim śmigłowca. Dzisiejszy lot mieliśmy szczegółowo zaplanowany, ale i tak było to niesamowite osiągnięcie. Test ten wykazał, że możliwe jest dołączenie pojazdu latającego do przyszłych misji marsjańskich, mówi Dave Lavery, menedżer odpowiedzialny za Ingenuity w siedzibie NASA. Lot śmigłowca został sfilmowany przez kamery znajdujące się na łaziku Perseverance. Jednocześnie sam śmigłowiec, który jest wyposażony w procesor potężniejszy niż ten wykorzystywany przez łazik, filmował w kolorze swój lot. To jeden z elementów testów śmigłowca. Opiekujący się nim zespół chce „wycisnąć” z urządzenia co tylko się da, by móc określić przydatność tego typu pojazdów dla przyszłych misji na Marsa i inne obiekty Układu Słonecznego. Ingenuity jest też wyposażony w czarno-białą kamerę nawigacyjną, która rozpoznaje ukształtowanie terenu. Obrazy są na bieżąco wysyłane do procesora śmigłowca i w ten sposób testowane są możliwości komputera pokładowego. Kamera i możliwości obliczeniowe procesora to niektóre z elementów, ograniczających prędkość śmigłowca. Jeśli będzie ona zbyt duża, algorytm nie będzie w stanie śledzić ukształtowania terenu. To pierwszy test, w czasie którego widzieliśmy jak w praktyce działa algorytm na długich dystansach. W komorze testowej nie da się tego sprawdzić, mówi MiMi Aung, menedżerka projektu. Komora, w której na Ziemi testowano Ingenuity, symulując warunki panujące na Marsie, nie pozwalała na lot dłuższy niż pół metra w każdym kierunku. Inżynierowie nie wiedzieli więc, jak się będzie sprawowała kamera oraz oprogramowania i czy będą równomiernie pracowały przez cały czas. W komorze testowej masz wszystko po kontrolą. Są tam zabezpieczenia, możesz awaryjnie lądować. Zrobiliśmy wszystko, by Ingenuity latał bez tych zabezpieczeń, wyjaśnia inżynier Gerik Kubiak. « powrót do artykułu
- 15 odpowiedzi
-
- 1
-
-
Astrofizycy uważają, że znaleźli potężne i unikatowe narzędzie do wykrywania ciemnej materii – egzoplanety. W opublikowanym przez siebie artykule naukowcy stwierdzają, że obecność ciemnej materii można wykryć, mierząc jej wpływ na temperaturę egzoplanet. Sądzimy, że istnieje 300 miliardów egzoplanet. Jeśli odkryjemy i przebadamy niewielki odsetek z nich, to zyskamy olbrzymią ilość informacji na temat ciemnej materii, stwierdził Juri Smironv z Ohio State University. Smirnov i Rebecca Lane ze SLAC National Accelerator Laboratory są autorami artykułu opublikowanego w Physical Review Letters. Uczony dodaje, że gdy ciemna materia zostaje przechwycona przez grawitację egzoplanet, jest wciągana do jądra planety, gdzie dochodzi do jej anihilacji, co wiąże się z uwolnieniem ciepła. Im więcej ciemnej materii, tym więcej ciepła jest w ten sposób emitowane. Ciepło to może zaś zostać zarejestrowane przez Teleskop Kosmiczny Jamesa Webba (James Webb Space Telescope – JWST), który ma zostać wystrzelony w październiku bieżącego roku. Jeśli egzoplanety będą wydzielały nadmiarowe ciepło związane z obecnością ciemnej materii, powinniśmy być w stanie to zauważyć, dodaje Smirnov. Zdaniem uczonych planety spoza Układu Słonecznego mogą być szczególnie pomocne w wykrywaniu lżejszej ciemnej materii, tej o niższej masie. Dotychczas nie prowadzono poszukiwań ciemnej materii w takich zakresach masy. Naukowcy uważają, że gęstość ciemnej materii rośnie w kierunku centrum Drogi Mlecznej. Jeśli to prawda, to powinniśmy zauważyć, że planety bliżej centrum galaktyki rozgrzewają się bardziej niż te na jej obrzeżach. Jeśli byśmy coś takiego zarejestrowali byłoby to niesamowite odkrycie. Wskazywałoby, że znaleźliśmy ciemną materię, mówi Smirnov. Smirnov i Lane proponują, by przyjrzeć się „gorącym Jowiszom” oraz brązowym karłom. To w tych obiektach najłatwiej będzie zauważyć nadmiarowe ciepło spowodowane obecnością ciemnej materii. Uczeni uważają też, że warto poszukać i badać swobodne planety, takie, które nie orbitują wokół gwiazd. W ich przypadku nadmiarowe ciepło powinno być jeszcze bardziej oczywistym sygnałem obecności ciemnej materii, gdyż nie dociera do nich energia z gwiazd macierzystych. Olbrzymią zaletą wykorzystania egzoplanet jako wykrywaczy ciemnej materii jest fakt, że nie potrzeba do tego nowych rodzajów urządzeń lub technologii czy przeprowadzania takich badań, jakich dotychczas nie wykonywano. Obecnie znamy ponad 4300 egzoplanet i niemal 6000 kandydatów na planety. W ciągu najbliższych lat misja Gaia, wysłana przez Europejską Agencję Kosmiczną, powinna wykryć dziesiątki tysięcy kolejnych egzoplanet. Będziemy więc mieli olbrzymią liczbę obiektów, które można badać w poszukiwaniu ciemnej materii. « powrót do artykułu
- 5 odpowiedzi
-
- ciemna materia
- ciepło
-
(i 1 więcej)
Oznaczone tagami:
-
W poniedziałek (26 kwietnia) rozpoczął się sezon migracji nurogęsi z Łazienek Królewskich do Wisły. Dzięki szybkiemu wstrzymaniu ruchu drogowego ptasiej mamie i młodym (12) udało się bezpiecznie przeprawić przez ul. Czerniakowską. Jak podkreślono na facebookowym profilu Zieleni Warszawskiej, akcja zakończyła się szczęśliwie dzięki szybkiej interwencji Zarządu Zieleni m. st. Warszawy, mieszkańców i służb miejskich. Wstrzymano ruch na Czerniakowskiej i ok. 12.30 ptaki były już po drugiej stronie. Ponieważ w następnych tygodniach należy się spodziewać kolejnych wędrówek, wystosowano apel, by w okresie od kwietnia do czerwca zachować szczególną ostrożność na terenie Parku Agrykola oraz na ul. Czerniakowskiej i Myśliwieckiej. Kierowców prosimy o wolniejszą jazdę i ostrożność, a mieszkańców o trzymanie psów na smyczy i zachowanie dystansu od płochliwych ptaków. Po opuszczeniu gniazda matki z młodymi pokonują trudną trasę z Łazienek Królewskich, przez Kanał Piaseczyński i 2 ulice (Myśliwiecką oraz Czerniakowską), aż do Portu Czerniakowskiego i Wisły. W ochronę samic nurogęsi i młodych co roku angażują się mieszkańcy i służby oraz pracownicy Zarządu Zieleni m. st. Warszawy. W trakcie sezonu migracji nurogęsi monitorujemy Park Agrykola, sprawdzając, czy ptaki potrzebują pomocy w przejściu przez jezdnię (wtedy zatrzymywane są auta). Specjalnie obniżamy poziom wody w Kanale Piaseczyńskim, aby nurogęsi mogły przepłynąć przepustem z zachodniej do wschodniej części kanału. We współpracy z Zarządem Dróg Miejskich wycięliśmy również przejścia w murkach przy ul. Myśliwieckiej, żeby udrożnić dla wędrujących ptaków ten korytarz ekologiczny, z którego również korzystają. W Warszawie nurogęsi gniazdują prawie wyłącznie na terenie parku Łazienki Królewskie (i ewentualnie w okolicach). Na Facebooku Zieleń Warszawska zaznacza, że to sytuacja dość wyjątkowa, ponieważ nie jest to gatunek parkowy i w dodatku ptaki gnieżdżą się stosunkowo daleko od obecnego koryta Wisły. Nurogęsi gniazdują głównie w dziuplach drzew. Niedługo po wylęgu matki prowadzą nielotne pisklęta w stronę Wisły, m.in. z powodu małych możliwości zdobycia pokarmu w parkowych zbiornikach i kanałach. « powrót do artykułu
-
Nasze badania wykazały, że u ozdrowieńców w ciągu sześciu miesięcy od zdiagnozowania COVID-19 ryzyko zgonu jest większe i rośnie wraz z cięższym przebiegiem choroby, mówi profesor Ziyad Al-Aly. Do takich wniosków naukowcy z Washington University of St. Louis doszli na podstawie analizy danych ponad 87 000 osób, które chorowały na COVID-19 i grupy kontrolnej składającej się z 5 000 000 osób z federalnej bazy danych. To najszerzej zakrojone badania nad długoterminowymi skutkami COVID-19. Nie jest przesadą stwierdzenie, że długoterminowe skutki COVID-19 będą w przyszłości stanowiły poważny kryzys zdrowotny w USA. Biorąc pod uwagę fakt, że chorowało ponad 30 milionów osób, a długoterminowe skutki choroby są znaczące, efekty pandemii będziemy odczuwali przez lata, a nawet dekady. Lekarze muszą lepiej przyglądać się osobom, które przechorowały COVID-19, dodaje uczony. Badacze wykazali, że po przetrwaniu początkowej infekcji COVID-19 – za taki stan uznano okres rozpoczynający się 30 dni po diagnozie – ryzyko zgonu w ciągu kolejnych 6 miesięcy jest o 60% wyższe niż w reszcie populacji. Okazało się, że w tym czasie liczba zgonów wśród ozdrowieńców jest wyższa o 8 osób na 1000. Znacznie gorzej jest w grupie, która była na tyle chora, że w związku z COVID-19 trafiła do szpitala. Tam umiera aż 29 osób na 1000 więcej, niż w całej populacji. Te zgony, spowodowane długoterminowymi skutkami infekcji, niekoniecznie są zaliczane do zgonów z powodu COVID-19. Wydaje się zatem, że obecnie podawana liczba zgonów, do których zalicza się jedynie zgony bezpośrednio po infekcji, to wierzchołek góry lodowej, dodaje Al-Aly. Na potrzeby badań przeanalizowano dane zdrowotne 73 435 osób z bazy danych Departamentu ds. Weteraów (VHA). Wszystkie te osoby przeszły COVID-19 ale żadna z nich nie była z tego powodu hospitalizowana. Dane te porównano z informacjami o niemal 5 milionach osób z bazy VHA, u których nie zdiagnozowano COVID-19. Ponadto, by lepiej zrozumieć ciężki przebieg COVID-19 naukowcy porównali też informacje o 13 654 osobach, które były hospitalizowane z powodu koronawirusa, z danymi 13 997 osób hospitalizowanych z powodu sezonowej grypy. Wszyscy pacjenci przeżyli pierwszych 30 dni od infekcji,a ich losy były śledzone przez kolejnych 6 miesięcy. W trakcie analizy potwierdzono, że mimo iż COVID-19 początkowo atakuje układ oddechowy, to wirus może wpłynąć niemal na każdy organ. Po szczegółowej analizie 379 przypadków, 380 klas przepisanych leków i 62 testów laboratoryjnych, badacze zauważyli, że wirus SARS-CoV-2 ma wpływ na cały organizm i wymienili długoterminowe skutki jego działalności, które były widoczne po ponad sześciu miesiącach od diagnozy. I tak stwierdzono, że COVID-19 pozostawia długotrwałe skutki w następujących elementach organizmu: – układzie oddechowym (długotrwały kaszel, krótki oddech, niski poziom tlenu we krwi), – układzie nerwowym (wylewy, bóle głowy, problemy z pamięcią, problemy ze smakiem i węchem), – zdrowiu umysłowym (depresja, problemy ze snem, niepokój, nadużywanie różnych substancji), – układzie metabolicznym (cukrzyca, otyłość, wysoki poziom cholesterolu), – układzie krążenia (ostre zespoły wieńcowe, uszkodzenia serca, palpitacje, nierównomierny rytm), - nerkach (ciężkie uszkodzenie nerek, chroniczne uszkodzenie nerek, mogące prowadzić do konieczności dializowania), – układzie krwionośnym (zakrzepy w nogach i płucach), – skórze (wysypka, utrata włosów), – układzie mięśniowo-szkieletowym (bóle stawów, osłabienie mięśni), – ogólnym stanie zdrowia (anemia, zmęczenie, ogólne złe samopoczucie). Żaden z badanych nie wykazywał wszystkich tych objawów, jednak u wielu pojawiło się po kilka z nich. Wśród analizowanych przypadków osób, które trafiły do szpitala, ci, którzy byli hospitalizowani z powodu COVID-19 radzili sobie zdecydowanie gorzej, niż ci, których hospitalizowano z powodu grypy. Ryzyko zgonu wśród hospitalizowanych ozdrowieńców z COVID-19 było o 50% wyższe niż u hospitalizowanych ozdrowieńców z grypy. Ozdrowieńcy z COVID-19 ze znacznie większym prawdopodobieństwem wykazywali też długoterminowe negatywne skutki choroby. W porównaniu z grypą COVID-19 znacznie częściej pozostawia ślady w organizmie, zarówno jeśli chodzi o rozmiary ryzyka jak i skutki dla organizmu. Długoterminowe skutki COVID-19 zdecydowanie odbiegają od typowych objawów przechorowania zakażenia wirusem. Zarówno ryzyko uszkodzeń i śmierci, jak i zakres organów i układów dotkniętych chorobą dalece wykraczają poza to, co obserwujemy w przypadku innych wirusowych chorób układu oddechowego, w tym grypy, wyjaśnia Al-Aly. Uczeni dodają, że niektóre z długoterminowych objawów – jak np. kaszel czy krótki oddech – mogą z czasem ustępować. Inne zaś mogą się pogarszać. Będziemy nadal śledzić losy pacjentów, by lepiej zrozumieć wpływ wirusa na czas po pierwszych 6 miesiącach od infekcji. Na razie minął nieco ponad rok od wybuchu pandemii, zatem niektóre konsekwencje zachorowania mogły się jeszcze nie ujawnić, stwierdzają naukowcy. W przyszłych analizach tej samej grupy pacjentów naukowcy chcą sprawdzić, czy istnieje różnica w długoterminowych skutkach przechorowania COVID-19 w zależności od wieku, płci i rasy. Szczegóły badań zostały opublikowane na łamach Nature. « powrót do artykułu
-
- COVID-19
- ozdrowieńcy
-
(i 5 więcej)
Oznaczone tagami:
-
Po prawie 4 latach prac badawczych, 63 naukowców z 13 krajów, w tym czterech z Polski rozkodowało genom żyta. W międzynarodowej grupie znaleźli się badacze z Katedry Genetyki, Hodowli i Biotechnologii Roślin (Wydział Kształtowania Środowiska i Rolnictwa) – dr hab. Beata Myśków oraz dr hab. Stefan Stojałowski. Szczegółowy opis kompletnego genomu żyta opublikowano pod koniec marca br. na łamach magazynu Nature Genetics. Autorami badania są członkowie międzynarodowego zespołu The International Rye Genome Sequencing Consortium. Dzięki temu odkryciu będziemy mogli poznać biologię żyta, która może pomóc w doskonaleniu innych roślin uprawnych, powszechniej uprawianych, a z żytem blisko spokrewnionych np: pszenicy, pszenżyta oraz jęczmienia. To wydarzenie jest technicznym kamieniem milowym – powiedział Dr Gordillo, główny hodowca żyta w międzynarodowej firmie hodowlanej KWS. Według badacza rozkodowanie genomu żyta było dużym wyzwaniem naukowym. Genom żyta liczy prawie 8 mld nukleotydów, czyli ponad 2 razy więcej niż DNA człowieka. Z drugiej strony zainteresowanie żytem jako gatunkiem ważnym gospodarczo jest ograniczone do nielicznych krajów, głównie z obszaru Europy Środkowo-Wschodniej. Z tego powodu nakłady finansowe na badania żyta w skali globalnej są niewielkie. Poznaniem sekwencji DNA człowieka był zainteresowany cały świat, sekwencją DNA żyta kilkanaście państw, gdzie jest ono uprawiane – tłumaczy dr hab. Beata Myśków. Dodatkową ciekawostką jest fakt, iż w trakcie, gdy prace wyżej wspomnianej międzynarodowej grupy badawczej były już mocno zaawansowane, pojawiła się informacja, że grupa naukowców z Chin również pracuje nad zsekwencjonowaniem genomu żyta – dodaje dr hab. Myśków. Konsorcjum międzynarodowe pod nazwą The International Rye Genome Sequencing Consortium pracowało nad sekwencją DNA europejskiej linii żyta, zespół chiński nad azjatycką formą tego gatunku. Wyścig obu zespołów trwający kilkadziesiąt miesięcy zakończył się idealnym remisem. Publikacje zostały złożone do druku w odstępie trzech dni, a finalnie ukazały się w tym samym terminie. Jest to chyba pierwszy taki przypadek, gdy dwa zespoły pracujące nad równie złożonym i długotrwałym przedsięwzięciem, opublikowały swoje wyniki w tym samym dniu – mówi dr hab. Stefan Stojałowski. Rozkodowany genom żyta to baza danych, dzięki której będziemy mogli lepiej zrozumieć biologiczne mechanizmy regulujące procesy życiowe tej rośliny. Zrozumienie, jak funkcjonuje skomplikowany mechanizm jakim są komórki żywego organizmu (rośliny, zwierzęcia, człowieka) umożliwia wyjaśnienie m.in. tego, dlaczego coś działa nie tak, jak byśmy tego chcieli. Teraz będziemy mogli dowiedzieć się dlaczego nasze żyto czasami choruj, daje plony niższe od naszych oczekiwań, dlaczego zbierane z pola ziarna nie zawsze nadaje się do produkcji smacznego pieczywa itd. – tłumaczy dr hab. Stojałowski. Prace nad poznaniem genomu żyta rozpoczęły się już 28 lat temu. Za pierwszy etap tych badań można uznać opublikowanie w 1993 roku pierwszej mapy genetycznej żyta, która była mało precyzyjna, ale obejmowała wszystkie 7 chromosomów żyta. Mapa ta powstała w Wielkiej Brytanii na bazie populacji wytworzonej na szczecińskiej Akademii Rolniczej. W badaniach uczestniczył prof. Piotr Masojć, obecny kierownik Katedry Genetyki, Hodowli i Biotechnologii Roślin – wspomina prof. Stefan Stojałowski. Wśród badaczy z Polski w międzynarodowym konsorcjum pracowały również dr hab. Hanna Bolibok-Brągoszewska oraz prof. dr hab. Monika Rakoczy-Trojanowska z Katedry Genetyki, Hodowli i Biotechnologii Roślin, Instytutu Biologii SGGW w Warszawie. « powrót do artykułu
-
Lądy pojawiły się 500 milionów lat wcześniej niż sądzono?
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
Kontynentalna skorupa ziemska mogła pojawić się nawet 500 milionów lat wcześniej niż dotychczas przypuszczano. Określenie daty jej powstania jest o tyle istotne, że lepiej pomaga zrozumieć warunki, w jakich na naszej planecie pojawiło się życie. Wietrzenie skorupy kontynentalnej dostarcza do oceanów wielu składników odżywczych, które mogły pomóc w utrzymaniu i rozwoju prymitywnego życia. Dlatego tak ważnym jest odpowiedź na pytanie, kiedy pojawiły się kontynenty. Aby na nie odpowiedzieć Desiree Roerdink z Uniwersytetu w Bergen i jej zespół zbadali próbki skał z 6 miejsc w Australii, RPA i Indiach. W próbkach znajdował się baryt, minerał z grupy siarczanów, który może powstawać w pobliżu kominów hydrotermalnych. Baryt się nie zmienia. Jego skład chemiczny nosi ślady środowiska, w jakim powstawał, stwierdziła Roerdink prezentując wyniki swoich badań w czasie spotkania Europejskiej Unii Nauk Geologicznych. Naukowcy wykorzystali stosunek izotopów strontu, by obliczyć, kiedy rozpoczęło się wietrzenie badanych przez nich skał. Na tej podstawie stwierdzili, że po raz pierwszy proces taki miał miejsce około 3,7 miliarda lat temu. Ziemia powstała przed około 4,5 miliardami lat. Z czasem jej zewnętrzna część ostygła na tyle, że powstała sztywna skorupa pokryta globalnym oceanem. Przed około 4 miliardami lat rozpoczął się archaik, epoka geologiczna, w której pojawiło się życie. Mamy silne dowody na to, że co najmniej 3,5 miliarda lat temu na Ziemi istniały mikroorganizmy. Dokładnie jednak nie wiemy, kiedy życie się pojawiło. Aaron Satkoski z University of Texas mówi, że badania grupy Roerdink pokazują, iż życie mogło pojawić się najpierw na lądzie. Badania te pozwalają nam stwierdzić, kiedy istniały lądy, które mogły pomóc w powstaniu życia, stwierdza uczony. « powrót do artykułu -
Sildenafil jest skutecznym środkiem wykorzystywanym u panów, który cierpią na zaburzenia erekcji. Ten specyfik na potencję znany jest szerszemu gronu panów, jako Viagra. Warto przyjrzeć się bliżej tej substancji, dzięki której mężczyzna może odzyskać utraconą radość seksu i prowadzić udane życie seksualne. Sildenafil- czym właściwie jest i w jaki sposób działa? Sildenafil znajdujący się między innymi w niebieskiej tabletce to skuteczna substancja, która sprawdza się u mężczyzn cierpiących na impotencję. Środek ten należy do grupy leków będących selektywnymi i odwracalnymi inhibitorami fosfodiesterazy typu 5. Do innych substancji o podobnym działaniu i skuteczności można zaliczyć tadanafil czy wardenafil. Działanie sildenafilu opiera się na wielu skomplikowanych procesach, a za ich zapoczątkowanie odpowiada tlenek azotu. Tlenek azotu aktywuje się w momencie pobudzenia seksualnego w ciałach jamistych prącia. Z tego względu, aby środek ten mógł zadziałać, niezbędna jest do tego aktywność seksualna. Warto więc skupić się na grze wstępnej i zapewnieniu sobie intensywnych bodźców seksualnych. Potem dochodzi do rozkurczu mięśni gładkich, jakie kontrolują przepływ krwi w ciałach jamistych. Jeśli napięcie mięśni gładkich ulegnie zmniejszeniu, wówczas zwiększa się przepływ krwi w prąciu, a mężczyzna może cieszyć się z pojawienia erekcji. Preparaty na potencję z sildenafilem- kiedy i w jaki sposób przyjmować? Sildenafil możemy dostać w formie tabletek o różnych dawkach. Nie powinniśmy jednak sami sobie ustalać przyjmowanej dawki. Powinien to zrobić lekarz, wtedy zapewnimy sobie bezpieczeństwo przyjmowania specyfiku. Podstawowa dawka wynosi 50 mg, natomiast najwyższa dawka wynosi 100 mg sildenafilu. Dawki te można otrzymać tylko i wyłącznie po wcześniejszym wypisaniu recepty przez lekarza. Zaburzenia erekcji są dla wielu panów niezwykle przykrym i upokarzającym problemem, z tego względu nie chcą oni udać się na konsultację lekarską. Wielu z nich decyduje się na korzystanie z ogólnodostępnych preparatów bez recepty. Przeważnie są to środki ziołowe, ale także sildenafil bez recepty w dawce wynoszącej 25 mg. Tabletki na potencję z sildenafilem zażywa się na ok. godzinę przed planowanym współżyciem. Co ważne, w ciągu 24 h można spożyć tylko jedną tabletkę. Do jej działania potrzebna jest także stymulacja seksualna. Środek na potencję trzeba połknąć i popić wodą. Warto pamiętać, iż spożycie obfitego i tłustego posiłki przed zażyciem leku na potencje może spowolnić jego działanie. Przeważnie środek działa po upływie pół godziny, aczkolwiek najlepsze rezultaty zauważa się po godzinie. Środek na potencję z sildenafilem działa średnio od 3 do 4 godzin. Kto nie może sięgać po sildenafil? Sildenafil został opracowany jedynie dla dorosłych mężczyzn zmagających się z zaburzeniami erekcji. Jest to więc środek dla wszystkich osób, które nie mogą uzyskać bądź utrzymać erekcji, przez co ich stosunki seksualne nie należą do udanych. Viagra, jak i inne środki z tym składnikiem nie mogą być używane przez osoby, które nie skarżą się na kłopoty ze wzwodem. Ponadto, sildenafil nie może być przyjmowany przez osoby niepełnoletnie i kobiety. Zaburzenia erekcji wynikają z wielu czynników: brak ruchu, stres, zmęczenie, otyłość, palenie papierosów. Oprócz tego mogą stanowić sygnał rozwijających się w organizmie mężczyzny chorób. Z tego względu radzi się, aby przed zastosowaniem leku na potencję udać się do lekarza, który znajdzie przyczynę problemu. Ponadto warto zadbać o zdrowy tryb życia. Do najważniejszych przeciwskazań do przyjmowania leków z sildenafilem należą: • udar mózgu albo zawał serca • ciężkie zaburzenia czynności wątroby • niskie ciśnienie tętnicze • ciężkie choroby układu krążenia • przyjmowanie w tym samym czasie azotanów albo innych leków będących donorami tlenku azotu • degeneracyjne zmiany siatkówki, utrata wzroku na skutek niedokrwiennej neuropatii nerwu wzrokowego Warto pamiętać, aby z dużą dozą ostrożności korzystać z takich środków u osób z hemofilią, anemią sierpowatą, białaczką, chorobą wrzodową czy też deformacjami penisa. « powrót do artykułu
-
Stany Zjednoczone zapowiadają znacznie zmniejszenie emisji CO2
KopalniaWiedzy.pl dodał temat w dziale Ciekawostki
Drugi największy na świecie emitent dwutlenku węgla, Stany Zjednoczone, zapowiedział, że do 2030 roku zredukuje emisję o 50–52 procent w porównaniu z emisją z roku 2005. Administracja prezydenta Bidena chce w ten sposób zachęcić inne kraje do wyznaczenia sobie bardziej ambitnych celów przed listopadowym spotkaniem COP26 ONZ. Zapowiedź Białego Domu oznacza duży postęp w porównaniu z dotychczas wyznaczanymi celami. Wcześniej USA obiecywały 28-procentową redukcję do roku 2025. Zgodnie zaś z nowymi zapowiedziami za cztery lata amerykańska emisja zmniejszy się o 38% w porównaniu z rokiem 2005. Zapowiedzi rządu USA, mimo że ambitne, nie są jednak wystarczające. Organizacja Climate Action Tracker, która śledzi, jak poszczególne kraje wypełniają założenia Porozumienia Paryskiego, zgodnie z którymi ludzkość ma powstrzymać globalne ocieplenie na poziomie 1,5 stopnia Celsjusza powyżej epoki przedprzemysłowej mówi, że do roku 2030 Stany Zjednoczone powinny zredukować swoją emisję o 57–63 procent. W najnowszym oświadczeniu Biały Dom powtórzył, że do roku 2035 cała produkcja energii elektrycznej w USA ma się odbywać bezemisyjnie. Zapowiedziano też zwiększenie powierzchni lasów, większe rozpowszechnienie pomp cieplnych w budynkach mieszkalnych oraz mniej energochłonne samochody. USA nie są jedyny krajem, który stawia sobie coraz bardziej ambitne cele. Amerykanie poinformowali o nowych celach kilka dni po tym, gdy Wielka Brytania zapowiedziała, że do roku 2035 zredukuje swoją emisję aż o 78% w porównaniu z rokiem1990. Japonia, która jest 6. na świecie największym konsumentem węgla, obiecuje, że do roku 2030 zmniejszy emisję o 46% w porównaniu z rokiem 2013. Jeszcze niedawno zapowiadano, że będzie to 26%. W tym samym czasie Kanada ma zamiar zredukować swoją emisję o 40–45 procent w porównaniu z rokiem 2005. To znacznie mniej niż potrzebne 60% redukcji, ale dużo więcej niż wcześniej zapowiadane 30%. Nawet prezydent Brazylii, Jair Bolsonaro, zapowiedział bardziej zdecydowana działania. Stwierdził, że do roku 2050 jego kraj stanie się neutralny pod względem emisji węgla, a do roku 2030 zakończy się wylesianie Amazonii. « powrót do artykułu- 4 odpowiedzi
-
- Stany Zjednoczone
- emisja
-
(i 3 więcej)
Oznaczone tagami:
-
Członkowie Stowarzyszenia Historyczno-Eksploracyjnego Pamięć z Włostowa przekazali do sandomomierskiej Delegatury Wojewódzkiego Urzędu Ochrony Zabytków znalezioną w Ossolinie koło Klimontowa bullę (pieczęć) ołowianą Eugeniusza IV - papieża w latach 1431-47. Bullę o średnicy 38 i grubości 5 mm odkryto 18 kwietnia. Jest zachowana w całości, w bardzo dobrym stanie (stwierdzono jedynie niewielkie uszkodzenia mechaniczne). Na awersie umieszczono przedstawienia - w ujęciu 3/4 - głów apostołów Pawła (po lewej) i Piotra (po prawej); są one zwrócone do siebie. Głowy oddzielają od siebie łukowate linie z drobnych perełek, między którymi znajduje się umieszczony symetrycznie na osi pieczęci krzyż o rozszerzających się ramionach. Nad przedstawieniami głów widnieje napis SPASPE (litera E jest uszkodzona i słano czytelna), będący akronimem od SANCTUS PAULUS SANCTUS PETRUS. Jak poinformował Kopalnię Wiedzy dr hab. Marek Florek z Delegatury, na rewersie bulli u góry widoczny jest krzyż, poniżej zaś napis rozmieszczony w 3 rzędach: EVGEN/IVS PP/IIII, czyli Eugeniusz Papa (papież) IV (czwórka została zapisana w często stosowany w średniowieczu sposób, jako 4 kolejne łacińskie cyfry I). Dr Florek dodaje, że w chwili obecnej trudno jest ustalić, w jakich okolicznościach bulla, a właściwie jakiś dokument wydany przez papieża Eugeniusza IV i opatrzony jego pieczęcią, trafił do Ossolina. Być może pochodził on z kościoła w pobliskich Goźlicach. Możliwe również, że był pierwotnie przechowywany w archiwum znajdującym się niegdyś na zamku w Ossolinie. Bulla z Ossolina to 2. tego typu znalezisko z okolic Sandomierza. W 2014 r. w Brzeziu koło Opatowa znaleziono połowę podobnej ołowianej pieczęci Jana XXIII (jego pontyfikat przypadał na lata 1410-1414; później uznano go za uzurpatora - antypapieża). Podobnie jak bulla z Brzezia bulla z Ossolina zostanie przekazana do Muzeum Diecezjalnego w Sandomierzu. « powrót do artykułu
-
Francuscy naukowcy rozwiązali zagadkę, która trapi ludzkość od tysięcy lat. Wraz z nieuchronnie nachodzącym latem wiele osób coraz częściej sięga po chłodne napoje, w tym po piwo. Teraz, dzięki uczonym z Université de Reims Champagne-Ardenne dowiedzieliśmy się, ile bąbelków uwalnia się z przeciętnej 0,5 litrowej szklanki piwa zanim cała piana opadnie. Już wcześniej inny zespół naukowy stwierdził, że w lampce szampana znajduje się około 1 miliona bąbelków. Co z piwem? Naukowcy z Reims oceniają, że ile bąbelków uwolni się z „delikatnie nalanego” piwa typu lager. Lagery są niezwykle popularnymi piwami. Dwutlenek węgla powstaje w nich podczas fermentacji, a dodatkowo jest w wprowadzany do napoju w czasie pakowania. Uczeni najpierw zmierzyli ilość dwutlenku węgla rozpuszczoną w komercyjnym lagerze przed napełnieniem nim szklanki. Następnie, wykorzystując tę informację i przyjmując, że piwo podczas nalewania do kufla ma temperaturę 5,5 stopnia Celsjusza, oszacowali, ile bąbelków powinno unosić się ze standardowego naczynia. Obserwowali też unoszące się bąbelki za pomocą szybko działającej kamery. Wykazały one, że unoszące ku powierzchni bąbelki stają się coraz większe, przechwytując i usuwając z napoju coraz więcej gazu. Na podstawie tak przeprowadzonych badań uczeni stwierdzili, że zanim piana opadnie, z piwa uwolni się od 200 000 do 2 000 000 bąbelków. Naukowców zaskoczył fakt, że niedoskonałości szkła inaczej wpływają na formowanie się bąbelków w szampanie, a inaczej w piwie. W piwie liczba bąbelków rośnie bardziej niż w szampanie, gdy napój jest nalewany do szkła z większymi niedoskonałościami. O wynikach przełomowych badań poinformowano w artykule Cracking open the mystery of how many bubbles are in a glass of beer opublikowanym na łamach pisma Amerykańskiego Towarzystwa Chemicznego. « powrót do artykułu
-
Setki narzędzi kamiennych używanych przez Homo erectusa odkryli polscy naukowcy w kopalni złota we wschodniej części Sahary w Sudanie. Według archeologów zabytki mają nawet ponad 700 tys. lat. Tak starych świadectw po pobycie człowieka w tym rejonie jeszcze nie znano. Do tego ważnego odkrycia doszło w jednej z porzuconych kopalni złota ok. 70 km na wschód od współczesnego miasta Atbara. We wschodniej części Sudanu na Pustyni Wschodniej, podobnie jak w wielu miejscach Sahary, rozgorzała gorączka złota – w prowizorycznych, odkrywkowych kopalniach ludzie poszukują tego cennego kruszcu. Odsłaniając kolejne warstwy górnicy natknęli się na narzędzia sprzed kilkuset tysięcy lat – opowiada PAP kierownik badań prof. Mirosław Masojć z Instytutu Archeologii Uniwersytetu Wrocławskiego. Informacja dotarła do archeologów. Od kilku lat przemierzają porzucone kopalnie w poszukiwaniu kolejnych zabytków i... ciągle je znajdują. Wśród setek narzędzi kamiennych w jednej z kopalń uwagę naukowców zwróciły uwagę szczególnie tzw. rozłupce. To duże, kilkukilogramowe masywne narzędzia o poprzecznej krawędzi tnącej, które przypominają nieco pięściaki – narzędzia o kształcie migdałowatym, mające obustronnie obciosane krawędzie, które u zbiegu tworzą spiczasty wierzchołek. Rozłupce to typowe narzędzia znane z obecnych obszarów Etiopii i Kenii, które były tam wytwarzane nawet już milion lat temu – opowiada prof. Masojć. Tego typu odkrycie jest dla badaczy nowością. Wcześniej zespół prof. Masojcia odkrywał pięściaki i inne narzędzia, ale nigdy takie, które byłyby technologiczne tak bardzo zbliżone do tych z Afryki równikowej i to tak starych. Badacz uważa, że w miejscu odkrycia zabytków znajdowała się pracownia, w której wytwarzano narzędzia, bo zachowały się zarówno gotowe „produkty”, jak również odłupki powstałe w czasie ich wykonywania. To ślady po obecności afrykańskiej odmiany Homo erectusa (człowieka wyprostowanego) – przodka człowieka współczesnego (Homo sapiens), który pojawił się w Afryce ok. 1,8 mln lat temu, skąd szybko migrował do Eurazji. Archeologom udało się sprecyzować wiek zabytków. Nawarstwienia ziemi i piachu zalegające tuż nad nimi przebadano z pomocą metody optycznie stymulowanej luminescencji (OSL). Okazało się, że liczą one ok. 390 tys. lat. Oznacza to, że warstwy poniżej są z pewnością starsze. Na podstawie stylu wykonania narzędzi uważam, że mogą mieć ponad 700 tys. lat, a może nawet milion lat – podobnie jak ich odpowiedniki dalej na południu Afryki – podkreśla prof. Masojć. Tak sędziwy wiek zabytków to archeologiczna sensacja. Gdy kilka lat temu prof. Masojć informował o odkryciu w tym rejonie narzędzi mających ok. pół miliona lat również były to pierwsze tak stare wytwory ludzkie na Pustyni Wschodniej. Teraz mamy potwierdzenie, że w tym rejonie są zabytki, które są być może nawet dwa razy starsze – podkreśla badacz. Naukowiec zwraca uwagę, że z terenu Egiptu i Sudanu są to najstarsze znane wytwory człowieka, które mają tak dobrze potwierdzoną chronologię. Owszem, na pustyniach znajdowane są pradziejowe narzędzia, ale nigdy do tej pory nie pochodziły z warstw, których wiek możemy tak bezpiecznie określić – zaznacza. W jego ocenie nie można wykluczyć, że w głębszych fragmentach kopalń znajdują się jeszcze starsze zabytki. Jednak dostęp do nich na razie jest utrudniony. Ostatni sezon badawczy miał miejsce pod koniec 2019 r., kiedy sytuacja polityczna była bardzo napięta i w końcu doszło do przewrotu w Sudanie i obaleniu wieloletniego reżimu. Prace były bardzo trudne pod względem logistycznym - brakowało paliwa, musieliśmy też unikać manifestacji, w tym czasie zdarzało się, że ginęli ludzie – wspomina prof. Masojć. Do tej pory badacze znaleźli niemal 200 miejsc, w których zachowały się paleolityczne wyroby kamienne. Część z nich znajduje się w kopalniach (te rozlokowane są ok. 350 km na północ od Chartumu). Znajdują tam różnego rodzaju narzędzia używane zarówno przez Homo erectusa, jak i Homo sapiens. Wiek narzędzi jest bardzo różny – od takich mających przeszło pół miliona lat po 60 tys. lat. « powrót do artykułu
-
- Homo erectus
- Sudan
-
(i 1 więcej)
Oznaczone tagami:
-
Polski reaktor Maria jest w stanie zwiększyć produkcję jodu-131
KopalniaWiedzy.pl dodał temat w dziale Technologia
Narodowe Centrum Badań Jądrowych od wielu lat jest wiodącym producentem promieniotwórczego jodu, stosowanego w terapii i diagnostyce medycznej. Naukowcy z Zakładu Badań Reaktorowych nieustannie badają i optymalizują procesy tej produkcji. Najnowszy sposób napromieniania pozwoli na zwiększenie aktywności uzyskanego materiału, ograniczy ilość ciepła wydzielanego podczas produkcji i zmniejszy ilość odpadów promieniotwórczych. Jod-131 jest powszechnie stosowanym radioizotopem, który rozpada się poprzez emisję cząstki beta. Stosowany jest w leczeniu nadczynności tarczycy oraz jej niektórych nowotworów, które wykazują zdolność pochłaniania tego pierwiastka. Jod-131 jest stosowany również jako znacznik w radioterapii np. jako metajodobenzyloguanina -131I (131I-MIBG) w terapii guzów chromochłonnych i nerwiaka płodowego. Obecnie dwutlenek telluru używany jako materiał tarczowy przy produkcji jodu-131 jest najczęściej napromienianym materiałem w reaktorze MARIA – wyjaśnia inż. Anna Talarowska z Zakładu Badań Reaktorowych. Przed każdym cyklem pracy reaktora, do jego kanałów załadowywanych jest średnio około stu czterdziestu zasobników z TeO2. Rocznie napromienianych jest ponad 3000 zasobników w kanałach pionowych reaktora MARIA. Po przetworzeniu w naszym OR POLATOM jod w postaci radiofarmaceutyków lub roztworów radiochemicznych trafia do odbiorców na całym świecie. Modernizacja procesu napromieniania telluru pozwoli na bardziej wydajną produkcję. Jod–131 powstaje w wyniku przemiany β- niestabilnego izotopu 131mTe. Ten ostatni powstaje w wyniku wychwytu neutronu przez atom telluru–130. Warunki pozwalające na wychwyt neutronu przez 130Te panują w reaktorach badawczych takich jak reaktor MARIA. Rdzenie tych reaktorów są projektowane w taki sposób, aby możliwe było umieszczenie zasobników z materiałem tarczowym na określony, optymalny czas napromienienia. Do reaktora MARIA jako tarcza trafia tzw. tellur naturalny, czyli taki, jaki występuje naturalnie w przyrodzie – tłumaczy uczona. Składa się on z ośmiu stabilnych izotopów. Izotop 130Te stanowi jedynie ok. 34 % naturalnego telluru. Pozostałe stabilne izotopy telluru mają większy od 130Te przekrój czynny na wychwyt neutronów. Dzięki dużym wartościom przekrojów czynnych w tellurze znajdującym się w polu neutronów termicznych, a szczególnie epitermicznych, ma miejsce duża generacja ciepła, będącego rezultatem intensywnie zachodzących reakcji jądrowych. Dotyczy to szczególnie izotopu 123Te (stanowiącego 0,9 % naturalnego telluru), którego przekrój czynny na wychwyt neutronów to jest ponad 1000 razy większy, niż w przypadku 130Te. Oznacza to, że dużo łatwiej zachodzi reakcja neutronów z 123Te niż 130Te i jest to efekt niepożądany. Istotą proponowanej zmiany w sposobie produkcji jest napromieniowanie tarcz z naturalnym tellurem o wzbogaceniu w 130Te do 95% (zamiast dotychczasowych 33,8%). Dzięki czemu zmniejszy się liczba reakcji neutronów z innymi izotopami telluru, które stanowią nieużyteczną część końcowego produktu, a znaczącą podwyższy się wydajność napromieniania. Nowy sposób napromieniania tarcz pozwoli na uzyskanie większej aktywności 131I, przy jednoczesnym zmniejszeniu ilość odpadów produkcyjnych i bardziej efektywnym wykorzystaniu kanałów pionowych reaktora. Zwiększenie aktywności końcowego produktu, zmniejszenie ilości odpadów i optymalizacja wykorzystania kanałów, to krok ku wydajniejszej produkcji, a więc też szerszemu dostępowi tego radioizotopu. Cały czas analizujemy procesy napromieniania tak aby możliwie najlepiej zmaksymalizować ich efekty – podkreśla inż. Talarowska. Otrzymane wyniki dotychczasowych analiz pozwalają na wyciągnięcie dwóch zasadniczych wniosków: zastosowanie wzbogaconego telluru znacznie zwiększa wydajność produkcji oraz zmniejsza generację ciepła w zasobnikach. Obecnie trwają prace eksperymentalne, których wyniki pozwolą dokonać końcowej oceny. Z punktu widzenia reaktora MARIA niezbędne jest przygotowanie dokumentacji – m.in. instrukcji i procedur. « powrót do artykułu -
Indyjski pieprz długi (Piper longum) jest wykorzystywany w medycynie ajurwedyjskiej do leczenia problemów układu pokarmowego, chorób płuc czy zapalenia stawów. Brak jednak naukowych dowodów, by pomagał na te schorzenia. Wiadomo jednak, że zawarty w nim alkaloid o nazwie piperlongumina zabija komórki nowotworowe. Teraz naukowcy odkryli, w jaki sposób zwalcza on glejaka Międzynarodowy zespół naukowy szczegółowo opisał na łamach ACS Central Science, jak piperlongumina przyłącza się do proteiny TRPV2 i upośledza jej aktywność. W glejaku dochodzi do nadmiernej ekspresji TRPV2, co wydaje się napędzać rozwój guza. Na podstawie dwóch różnych zwierzęcych modeli tej choroby naukowcy wykazali, że leczenie piperlonguminą znacząco zmniejsza guzy i przedłuża życie myszy. Dowiedli też, że alkaloid selektywnie niszczy ludzkie komórki glejaka. Badania te dają nam znacznie lepszy pogląd na sposób oddziaływania piperlonguminy na glejaka. Dzięki nim zyskaliśmy podstawy, na których można tworzyć bardziej efektywne metody leczenia, mówi współautorka badań Vera Moiseenkova-Bell z Penn Medicine. Nasze badania mogą mieć praktyczny wpływ na zdrowie ludzi cierpiących na tę straszną chorobę, dodaje Gonçalo J. L. Bernardes z Uniwersytetu w Lizbonie i Cambridge University. Badania rozpoczęły się od szerszego projektu, w ramach którego Bernardes badał przeciwnowotworowe właściwości piperlonguminy. Wraz z zespołem wykorzystał zaawansowane metody maszynowego uczenia się, by sprawdzić potencjalne metody interakcji tego alkaloidu z białkami kanałów jonowych TRP. Kanały jonowe to niewielkie otwory w błonach komórkowych, które umożliwiają przepływ określonych jonów. Kanały są wrażliwe na określony stymulanty, które je otwierają lub zamykają, regulując w ten sposób przepływ jonów. Bernardes i jego zespół odkryli, że piperlongumina działa jak inhibitor kanału jonowego TRPV2. Kanał ten istnieje w wielu typach komórek, jednak jego rola nie jest dobrze rozumiana. Po tym spostrzeżeniu naukowcy poprosili o pomoc laboratorium Moiseenkovej-Bell, które specjalizuje się w mikroskopii krioelektronowej. To pozwoliło na dokładne określenie miejsca, w którym piperlongumina łączy się z TRPV2 i go blokuje. Następnie przystąpiono do kolejnych eksperymentów, w czasie których uczeni przyjrzeli się komórkom różnych nowotworów i stwierdzili, że komórki wielopostaciowego, najbardziej rozpowszechnionego nowotworu mózgu, który niezwykle trudno jest leczyć, wykazują nadmierną ekspresję TRPV2. I, co niezwykle ważne, są bardzo wrażliwe na utratę tego kanału jonowego. Okazało się też, że istnieje związek pomiędzy większą ekspresją TRPV2 a większym stopniem agresywności nowotworu i gorszymi rokowaniami dla pacjenta. Nowotwory mózgu trudno jest leczyć m.in. dlatego, że lekom trudno jest pokonać barierę krew-mózg. Dlatego też uczeni opracowali specjalną strukturę z hydrożelu, którą można wypełnić piperlonguminą i wprowadzić do mózgu. Podczas eksperymentów wykazano, że taka struktura, która uwalniała alkaloid przez około 8 dni, przyczyniła się do niemal całkowitego zniszczenia guza i znacznego wydłużenia życia myszy. Teraz Bernardes i jego zespół pracują nad przygotowaniem badań przedklinicznych. Mają nadzieję, że w przyszłości uda im się rozpocząć badania kliniczne nad leczeniem glejaka za pomocą piperlonguminy. « powrót do artykułu
- 2 odpowiedzi
-
- pieprz długi
- piperlongumina
-
(i 1 więcej)
Oznaczone tagami:
-
Sztuczna inteligencja pomaga w diagnozie raka prostaty
KopalniaWiedzy.pl dodał temat w dziale Medycyna
Rak prostaty to obecnie jeden z dwóch najczęściej rozpoznawanych nowotworów złośliwych u mężczyzn. Zapadalność na raka gruczołu krokowego rośnie z wiekiem. To poważna choroba, jednak wcześnie wykryta jest uleczalna. Szybka, właściwa diagnostyka pozwala odpowiednio dobrać terapię i zwiększyć szansę pacjenta na przeżycie. Najdokładniej zmiany nowotworowe powala zobrazować rezonans magnetyczny (MRI). Niestety, badanie raka prostaty za pomocą tej metody jest skomplikowane. Niezbędne jest badanie wielu cech nowotworu, co utrudnia i znacznie wydłuża interpretację wyniku. Każdy otrzymany obraz musi być przeanalizowany osobno. Diagnostyka ta jest skomplikowana i trudniejsza niż w przypadku większości nowotworów złośliwych. Otrzymane wyniki są oceniane według skali PI-RADS (Prostate Imaging-Reporting and Data System), która umożliwia rozróżnienie zmian istotnych klinicznie. Analiza ta wymaga specjalistycznej wiedzy radiologów, którzy stanowią w Polsce zaledwie ok. 2 proc. lekarzy, co dodatkowo wydłuża czas oczekiwania na badanie i właściwą diagnozę. Interpretacja wyników jest subiektywna i zauważalne są różnice pomiędzy specjalistami doświadczonymi a początkującymi. Badania wykazały, że radiolodzy różnie interpretują, czy potencjalna zmiana nowotworowa jest inwazyjna. W Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym (OPI PIB) prowadzimy interdyscyplinarne badania, których wyniki mają praktyczne zastosowanie w wielu dziedzinach. Jednym z obszarów jest wykorzystanie najnowszych technologii IT w medycynie i ochronie zdrowia. Z naszych badań wynika, że sztuczna inteligencja może skutecznie usprawnić pracę lekarzy. Rezultaty są bardzo obiecujące i jestem przekonany, że także pomogą one innym naukowcom opracować nowoczesne narzędzia technologiczne, mające zastosowanie w diagnostyce nie tylko raka prostaty, ale także i innych chorób – mówi dr inż. Jarosław Protasiewicz, dyrektor Ośrodka Przetwarzania Informacji – Państwowego Instytutu Badawczego (OPI PIB). Ograniczenie liczby bolesnych biopsji Naukowcy z Laboratorium Stosowanej Sztucznej Inteligencji w OPI PIB opracowali platformę badawczą eRADS, która służy do standaryzacji opisów raportów medycznych. Narzędzie to pozwala obiektywnie ocenić istotność kliniczną zmiany na podstawie pięciostopniowej skali PI-RADS. Platforma umożliwia także zbieranie danych z badań, co w przyszłości pomoże stworzyć rozwiązania, które automatycznie będą szacowały cechy istotne klinicznie. W tym przypadku sztuczną inteligencję zastosowano do wspomagania procesów decyzyjnych. Badacze OPI PIB przeprowadzili badania pilotażowe z udziałem 16 pacjentów, diagnozowanych przez dwóch radiologów podczas ich dyżuru w Centralnym Szpitalu Klinicznym MSWiA w Warszawie. Specjaliści ci różnili się stażem pracy w zawodzie. Ich celem była ocena rzetelności oraz wstępnej użyteczności klinicznej systemu eRADS. Wyniki badania pilotażowego są obiecujące. Oceny istotności klinicznej zmiany przez radiologów z wykorzystaniem narzędzia opracowanego przez naukowców OPI PIB są bardziej zgodne, niż gdy dokonują oni analizy bez użycia platformy. Zastosowanie eRADS pomaga zmniejszyć różnice między jakością diagnozy lekarzy doświadczonych i niedoświadczonych. Precyzyjna ocena zmian pozwoli znacznie ograniczyć liczbę pacjentów, którzy są wysyłani na biopsję. W przypadku badania prostaty wiąże się ona z dyskomfortem pacjenta. Polega na pobraniu materiału z kilku do kilkunastu wkłuć. Sieci neuronowe zastąpią lekarzy? W naszym laboratorium badaliśmy także wykorzystanie w diagnostyce raka prostaty innych obszarów sztucznej inteligencji. Analizowaliśmy zastosowanie narzędzi wykorzystujących uczenie maszynowe i głębokie. Naszym celem było porównanie otrzymanych wyników z diagnozami postawionymi przez doświadczonych i niedoświadczonych radiologów. Model predykcyjny istotności klinicznej zmian, oparty o narzędzia uczenia maszynowego, bazował na cechach obrazu (np. jednorodności) w badanych komórkach i ich otoczeniu. Uzyskaliśmy model trafnie klasyfikujący istotne klinicznie zmiany z prawdopodobieństwem 75 proc., co można porównać do diagnozy niedoświadczonego lekarza. Najbardziej obiecujące rezultaty otrzymaliśmy jednak z zastosowania wiedzy domenowej w architekturze sieci neuronowych. Opracowane modele dają lepszą jakość diagnozy zmian nowotworowych w porównaniu z ocenami niedoświadczonych i doświadczonych radiologów, stawiając trafną diagnozę z prawdopodobieństwem 84 proc. – mówi Piotr Sobecki, kierownik Laboratorium Stosowanej Sztucznej Inteligencji w OPI PIB. Podsumowując, zastosowanie wiedzy domenowej w architekturze sieci neuronowych wpływa na szybkość uczenia modelu w przypadku diagnostyki raka prostaty. Analizowano efekt lokalizacji zmiany w prostacie i niezależnie od tego czynnika, wyniki otrzymane za pomocą modeli wykorzystujących sieci neuronowe były takie same lub lepsze od diagnozy postawionej przez doświadczonych radiologów. Potwierdziły to wyniki badania OPI PIB z użyciem danych historycznych od 6 radiologów oceniających 32 zmiany nowotworowe. Sztuczna inteligencja wykorzystująca uczenie głębokie nie zastąpi jednak lekarzy, ale ułatwi im pracę i przyspieszy rozpoczęcie leczenia pacjenta. Wciąż jednak mało jest otwartych zbiorów baz danych, które można wykorzystać do usprawnienia algorytmów sztucznej inteligencji. Należy pamiętać, że modele te są tak dobre, jak dane, na których zostały wyuczone. Chodzi zarówno o ich liczebność, jak i o jakość. 1) W Polsce z powodu raka prostaty codziennie umiera około 15 pacjentów, a choroba ta jest diagnozowana u co 8. mężczyzny 2) Ważne jest szybkie wykrycie choroby i podjęcie odpowiedniego leczenia. 3) Niestety, diagnostyka raka prostaty jest skomplikowana i trudna w porównaniu do metod wykrywania innych nowotworów. 4) Badacze z Laboratorium Stosowanej Sztucznej Inteligencji w Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym (OPI PIB) wykorzystali sztuczną inteligencję (SI) do usprawnienia diagnostyki obrazowej raka prostaty. 5) Najlepsze rezultaty uzyskali z zastosowaniem sieci neuronowych. Jakość otrzymanej diagnozy była na poziomie doświadczonego lekarza specjalisty lub wyższa. « powrót do artykułu-
- rak prostaty
- rak gruczołu krokowego
- (i 5 więcej)
-
Astronomowie znaleźli najbliższą Ziemi czarną dziurę
KopalniaWiedzy.pl dodał temat w dziale Astronomia i fizyka
Odkryto najbliższą Ziemi czarną dziurę. Obiektowi nadano nazwę „Jednorożec” nie tylko dlatego, że znajduje się w Gwiazdozbiorze Jednorożca, ale również dlatego, że ta czarna dziura ma wyjątkowe właściwości. Co więcej, Jednorożec ma towarzysza, czerwonego olbrzyma, który zbliża się do końca swojego żywota. Nasze Słońce również stanie się w przyszłości czerwonym olbrzymem. Czarna dziura znajduje się w odległości zaledwie 1500 lat świetlnych od Ziemi. Ma też niezwykle małą masę, jest zaledwie 3-krotnie bardziej masywna niż Słońce. Ten system jest tak dziwny, że musieliśmy nazwać go Jednorożcem, mówi doktorant Tharindu Jayasinghe, którego zespól badał Jednorożca. Odkrycia dokonano podczas analizy danych z All Sky Automated Survey i Transiting Exopanet Survey Satellite. Jayasinghe i jego koledzy zauważyli coś niezwykłego – czerwonego olbrzyma, który okresowo zmienia jasność, co sugerowało, iż jest przez coś przyciągany i zmienia kształt. Uczeni przeprowadzili więc badania i doszli do wniosku, że tym, co wpływa na kształt gwiazdy jest prawdopodobnie czarna dziura o masie zaledwie 3 mas Słońca. Dla porównania, czarna dziura znajdująca się w centrum Drogi Mlecznej ma masę około 4,3 miliona ma Słońca. Tak, jak Księżyc deformuje ziemskie oceany, które przybliżają i oddalają się od niego, wywołując pływy, tak czarna dziura przyciąga gwiazdę, powodując, że wzdłuż jednej osi jest ona dłuższa niż wzdłuż drugiej, wyjaśnia Todd Thompson, dziekan Wydziału Astronomii na Ohio State University. Najprostszym wyjaśnieniem jest w tym przypadku istnienie czarnej dziury i jest tutaj najbardziej prawdopodobnym. « powrót do artykułu- 17 odpowiedzi
-
- Ziemia
- Jednorożec
-
(i 1 więcej)
Oznaczone tagami:
-
W 2010 roku podczas budowy metra w Salonikach odkopano trójnawową bazylikę. Teraz archeolodzy dokonali w niej wyjątkowego odkrycia – znaleźli grób gockiego wojownika pochowanego wraz bronią. To jedyne takie odkrycie nie tylko w Salonikach, ale i na terenie całej greckiej Macedonii. We wczesnochrześcijańskiej bazylice znaleziono wiele grobów. Jeden z nich, datowany na podstawie ceramiki i innych przedmiotów, pochodzi z początku V wieku. Znajduje się w nim szkielet mężczyzny i pozostałości broni, z której najlepiej zachował się miecz. Obok spoczywają resztki sztyletu i umbo (elementu tarczy). Jak mówi archeolog Melina Paisidou, tym, co zdradza tożsamość wojownika jest fakt, iż po jego śmierci miecz "został celowo wygięty, ale nie złamany". Szczególnie interesujący jest fakt, że podczas wykopalisk z 2010 roku odkryto część wielkiego cmentarza. Z czasem okazało się, że znajduje się tam około 3000 pochówków różnego typu, które powstawały od okresu hellenistycznego do końca starożytności. Wspomnianą na wstępie bazylikę zbudowano tak, by obejmowała ona część grobów. To zaś wskazuje, że pochowani tam ludzie byli ważni dla chrześcijan. Obejmowała ona też grób wojownika, a fakt, iż został on pochowany z bronią również miał go wyróżnić. Wszystko wskazuje na to, że mamy tu do czynienia z Gotem. Bizantyjscy cesarze wynajmowali gockich wojowników, a o pochodzeniu etnicznym pochówku świadczy zarówno typ broni, jak i fakt jej wygięcia po śmierci. Dotychczas tego typu znaleziska były znane z Europy Zachodniej. « powrót do artykułu
-
Leczenie wielu schorzeń neurologicznych i psychicznych, jak: depresja, padaczka, stwardnienie rozsiane czy objawy psychotyczne nie byłoby możliwe bez postępów w badaniach środków farmakologicznych, które są lub mogą być wykorzystywane w chorobach układu nerwowego. Od ponad stu lat naukowcy stosują coraz bardziej innowacyjne metody służące wynalezieniu skutecznych leków. Współczesne badania mogą umożliwić stworzenie nowych substancji, które będą wykazywały się zadowalającą skutecznością w terapii tych schorzeń. Eksperci o tajnikach psychofarmakologii Dziedzinami farmakologii skoncentrowanymi na prowadzeniu takich badań są psychofarmakologia i neurofarmakologia. Celem prac naukowców zajmujących się tymi dziedzinami jest również poszukiwanie podłoża patofizjologicznego chorób oraz nowych i obiecujących punktów uchwytu dla leków. Znaczącym obszarem zainteresowań, w szczególności psychofarmakologii, jest także badanie własności wszelkich środków o działaniu psychoaktywnym, w tym szerokiego wachlarza substancji uzależniających. Tajniki neuro- i psychofarmakologii przybliżają dr hab. Janusz Szyndler z Katedry i Zakładu Farmakologii Doświadczalnej i Klinicznej WUM; dr Natalia Chmielewska z Zakładu Neurochemii, Instytutu Psychiatrii i Neurologii w Warszawie oraz Katedry i Zakładu Farmakologii Doświadczalnej i Klinicznej WUM i dr hab. Adam Hamed z Pracowni Pamięci Przestrzennej, Instytutu Biologii Doświadczalnej im. M. Nenckiego PAN. Klucz do nowoczesnych terapii Współcześnie neurofarmakologia oraz psychofarmakologia ściśle współpracują z innymi dziedzinami medycyny, takimi jak: fizjologia, genetyka, immunologia, neurologia i psychiatria, w celu określenia dokładnego podłoża chorób układu nerwowego, ale też w celu stworzenia skutecznych metod terapii. Najnowocześniejsze substancje są owocem takiej interdyscyplinarnej współpracy. Jako przykład można przytoczyć nowe terapie stosowane w leczeniu rdzeniowego zaniku mięśni, stwardnienia rozsianego czy w zaburzeniach nastroju. Niemniej ciągle istnieje wiele obszarów wymagających ogromnego nakładu pracy. Od litu do pierwszych leków przeciwpadaczkowych Zidentyfikowanie na przełomie XIX i XX wieku przez Charlesa Sherringtona i Ramóna y Cajala synaps i receptorów jako miejsc działania neuroprzekaźników, było przełomowym wydarzeniem rozpoczynającym okres odkryć w psycho- i neurofarmakologii, chociaż na leki, które mogły być stosowane w powszechnej praktyce przyszło jeszcze czekać pół wieku. W roku 1920 po raz pierwszy w piśmiennictwie, w tytule publikacji farmakologa Davida Machta pracującego na Uniwersytecie Hopkinsa, pojawił się termin „psychofarmakologia”. Epokę nowoczesnej psychofarmakologii rozpoczęło zastosowanie litu do leczenia manii przez Johna F.J. Cade’a w 1949 r. Niewiele później, bo w roku 1952, pojawiła się chloropromazyna, która była pierwszym skutecznym lekiem hamującym objawy psychotyczne. Pod koniec lat 50. w leczeniu depresji rozpoczęto stosowanie imipraminy. Ze strony neurologicznej pierwsze leki przeciwpadaczkowe, takie jak fenytoina, której stosowanie w leczeniu padaczki rozpoczęto już w 1936 r., również stanowiły ogromne osiągnięcie. Warto zauważyć, że o ile pierwsze leki przeciwpsychotyczne zostały zastąpione przez nowsze pochodne, to fenytoina nadal stanowi ważny lek stosowany w leczeniu padaczki. „Dekada mózgu” i leki działające molekularnie Kolejnym istotnym okresem w rozwoju obu dziedzin farmakologii były lata 90. Ogłoszenie przez George’a W. Busha „dekady mózgu” spowodowało rozpoczęcie epoki psychoneurofarmakologii molekularnej. Postęp w technikach genetycznych umożliwił badania nad lekami działającymi molekularnie, w tym nad terapią genową, która stanowi pomost pomiędzy zdobyczami farmakologii i genetyki. Obecnie badania w neuro- i psychofarmakologii koncentrują się na wykorzystaniu zaawansowanych technik molekularnych, rozwoju medycyny personalizowanej, jak również badaniu substancji, których mechanizmy działania związane są z wpływem na ekspresję genów. Techniki genetyczne i narzędzia biologii molekularnej stopniowo wypierają z badań neuro- i psychofarmakologicznych metody klasyczne, chociaż jak dotąd nie wiąże się to z radykalnymi zmianami w efektywności leczenia chorób neurologicznych. Badania eksperymentalne W badaniach psycho- i neurofarmakologii eksperymentalnej w szerokim zakresie wykorzystuje się modele zwierzęce. Mimo iż krytykowane ze względu na nie dość dokładne odwzorowanie patologii stwierdzanych u ludzi, wydają się być podstawowym narzędziem badawczym, zwłaszcza na wstępnym etapie badań. Wiadomo także, że postęp w wielu dyscyplinach medycznych był możliwy jedynie ze względu na wykorzystanie do tego celu modeli zwierzęcych. Co więcej, niemal wszystkie badania w dziedzinie fizjologii i medycyny uhonorowane Nagrodą Nobla wykorzystywały modele zwierzęce, co dodatkowo potwierdza ich niebagatelne znaczenie. Należy równocześnie podkreślić, że wykorzystywanie zwierząt do badań zawsze podlega weryfikacji przez komisję bioetyczną, a wysoka jakość opieki nad zwierzętami zapewnia powtarzalność i wysoką wartość uzyskiwanych wyników. Innowacyjne techniki szansą na nowoczesne i skuteczne leki Klasyczne podejście do badań neuropsychofarmakologicznych w ostatniej dekadzie zostało skorygowane poprzez wprowadzanie nowych technik m.in. opto- oraz chemogenetycznych. Współczesne badania farmakologiczne obejmują zagadnienia neuronauk wraz ze szczegółową nieinwazyjną analizą behawioralną modulowaną selektywnie poprzez hamowanie bądź aktywację konkretnych obwodów neuronalnych. Dzięki metodom chemogenetycznym jesteśmy w stanie czasowo aktywować oraz hamować wybrane obwody neuronalne z niespotykaną do tej pory precyzją. Kolejną innowacyjną metodą ostatniej dekady jest optogenetyka, która może być narzędziem stosowanym w badaniach psycho- i neurofarmakologicznych. Metoda ta pozwala na wprowadzenie do neuronów w wybranej strukturze mózgu genów kodujących światłoczułe białka. Dzięki temu zabiegowi światłoczułe receptory umiejscawiane są w wybranej populacji neuronalnej. Technika ta otwiera ogromne możliwości dla badań psycho-neurofarmakologicznych, neurofizjologicznych oraz behawioralnych. Dotychczas udało się uzyskać wiele nowych danych dotyczących dysfunkcji struktur neuronalnych odpowiadających za uzależnienia, lęk czy pamięć. Badacze mają nadzieję, że dane te pozwolą na stworzenie nowych substancji, które będą wykazywały się zadowalającą skutecznością w terapii tych trudnych do leczenia schorzeń. Epigenetyka kolejnym kamieniem milowym W ostatnich latach bardzo duże zainteresowanie budzą zagadnienia związane z epigenetyką, której mechanizmy, jak się wydaje, mają niebagatelny udział w patogenezie chorób psychicznych i neurologicznych. Obecnie uważa się, że interwencje farmakologiczne wpływające na mechanizmy epigenetyczne mogą zmienić sposób leczenia padaczki, depresji czy PTSD. Wielu autorów skłania się do opinii, że epigenetyka stanowi kolejny kamień milowy w rozwoju terapii chorób neurologicznych i psychicznych. Coraz więcej danych wskazuje, że analiza mechanizmów epigenetycznych w chorobach to nie tylko perspektywa wyjaśnienia podłoża wielu schorzeń, zwłaszcza psychicznych, ale także możliwość interwencji na wczesnym etapie chorób, w podłożu których istotną rolę odgrywają czynniki genetyczne. « powrót do artykułu
-
- choroba neurologiczna
- choroba psychiczna
-
(i 2 więcej)
Oznaczone tagami:
-
Łazik Perseverance dokonał kolejnego ważnego kroku w kierunku załogowej eksploracji Marsa. Znajdujący się na nim instrument MOXIE (Mars Oxygen In-Situ Resource Utilization Experiment) wykorzystał bogatą w węgiel atmosferę Marsa do wytworzenia tlenu. Udany eksperyment przeprowadzono przed dwoma dniami, 20 kwietnia. Bez możliwości produkcji i przechowywania tleny na Marsie trudno będzie myśleć o załogowej misji na Czerwoną Planetę. To krytyczny krok w kierunku zamiany dwutlenku węgla na tlen na Marsie. MOXIE ma jeszcze sporo do roboty, ale uzyskane właśnie wyniki są niezwykle obiecujące, gdyż pewnego dnia chcemy wysłać ludzi na Marsa. Tlen to nie tylko coś, czym oddychamy. Napędy rakietowe zależą od tlenu, a przyszłe misje załogowe będą uzależnione od produkcji na Marsie paliwa, które pozwoli astronautom wrócić do domu, mówi Jim Reuter dyrektor w Space Technology Mission Directorate (STMD). Inżynierowie obliczają, że do przywiezienia 4 astronautów z Marsa na Ziemię rakieta będzie potrzebowała 7 ton paliwa i 25 ton tlenu. To znacznie więcej, niż potrzeba ludziom do oddychania. Ci sami astronauci podczas rocznego pobytu na Marsie zużyją może 1 tonę tlenu, mówi Michael Hecht z Massachusetts Institute of Technology. Przewożenie 25 ton tlenu z Ziemi na Marsa byłoby bardzo trudnym i kosztownym przedsięwzięciem. Znacznie łatwiej będzie przetransportować większą wersję MOXIE, 1-tonowe urządzenie, które na miejscu wyprodukuje tlen potrzebny do powrotu. Atmosfera Marsa w 96% składa się z dwutlenku węgla. MOXIE oddziela atomy tlenu od molekuł dwutlenku węgla, uwalniając do atmosfery Marsa tlenek węgla. Konwersja odbywa się w temperaturze około 800 stopni Celsjusza, dlatego MOXIE jest zbudowany ze specjalnych materiałów, w tym wydrukowanych w 3D stopów aluminium, w których odbywa się ogrzewanie i chłodzenie gazów oraz aerożelu działającego jak izolacja. Z zewnątrz MOXIE pokryte jest cienką warstwą złota, które zatrzymuje promieniowanie podczerwone wewnątrz urządzenia, chroniąc w ten sposób inne elementy łazika Perseverance. Podczas pierwszego testu MOXIE wytworzył około 5 gramów tlenu, co wystarczyłoby człowiekowi na około 10 minut oddychania. Urządzenie jest w stanie wytworzyć do 10 gramów tlenu na godzinę. Przeprowadzony właśnie test miał pokazać, czy urządzenie bez szwanku przetrwało start, podróż i lądowanie na Marsie. NASA chce jeszcze co najmniej 9-krotnie prowadzić testy MOXIE. To nie jest po prostu pierwsze urządzenie, które wyprodukowało tlen na innej planecie. To pierwsza technologia tego typu, która ma wspomóc przyszłe misje wykorzystując lokalnie występujące zasoby, stwierdza Trudy Kortes odpowiedzialna w STMD za demonstracje technologii. « powrót do artykułu
- 7 odpowiedzi
-
- tlen
- Perseverance
-
(i 3 więcej)
Oznaczone tagami:
-
Pod Olsztynem znaleziono świetnie zachowany średniowieczny miecz takiego typu, jaki był używany podczas bitwy pod Grunwaldem. Sensacyjne znalezisko, jakie zdarza się raz na kilkadziesiąt lat, składa się z miecza, pochwy, pasa i dwóch noży. Zabytki pochodzą z przełomu XIV i XV wieku, niewykluczone zatem, że ich właściciel rzeczywiście brał udział w bitwie pod Grunwaldem. Miecz i towarzyszące mu przedmioty znalazł miłośnik archeologii Aleksander Miedwiediew. Znalezione artefakty trafią do Muzeum Bitwy pod Grunwaldem. Zestaw orężny zostanie teraz poddany czynnościom konserwacyjnym i badawczym. Mamy pewne podejrzenia, co do statusu społecznego średniowiecznego właściciela miecza i jesteśmy ciekawi, co kryje się pod warstwą rdzy. Głębiej zbadamy również samo miejsce wydobycia zabytku, by poznać kontekst sytuacyjny jego pochodzenia. Tak drogocenne przedmioty w średniowieczu rzadko kiedy zostawały w ziemi, mówi dyrektor Muzeum, Szymon Drej. Miecze i towarzyszące im wyposażenie były czymś naprawdę cennym, zatem wątpliwe, by właściciel dobrowolnie je porzucił. To nieodłączna część naszego regionalnego dziedzictwa. Jak wiemy, działania militarne bitwy pod Grunwaldem wykraczają przecież poza teren pól pod Stębarkiem i poza połowę lipca 1410 roku, dlatego znalezisko pobudza wyobraźnię. Atrakcyjnością stanu zachowania automatycznie przenosi w czasy grunwaldzkiego rycerstwa – stwierdził marszałek województwa warmińsko-mazurskiego Gustaw Marek Brzezin, na którego ręce znalazca przekazał bezcenne przedmioty. Na szczególne wyrazy uznania zasługuje postawa darczyńcy, który sprawił, że tak unikatowe zabytki będą mogły przemówić do wyobraźni szerokiego grona odbiorców, dodał. « powrót do artykułu
-
Studenci Akademii Górniczo-Hutniczej (AGH) pracują nad udoskonaleniem modeli łyżek ortodontycznych i wkładek donosowych (stentów), stosowanych w opiece okołooperacyjnej dzieci z rozszczepem wargi i podniebienia. Odbywa się to we współpracy z ekspertami z Uniwersyteckiego Szpitala Dziecięcego w Krakowie i studentami z Collegium Medicum Uniwersytetu Jagiellońskiego. Dzięki temu projektowi mają powstać modele lepiej dostosowane do potrzeb małych pacjentów. Jak podkreślają specjaliści, plastykę wargi przeprowadza się już u 12-tygodniowych dzieci. Niekiedy po takiej operacji zakłada się specjalistyczne wkładki, które wspomagają poprawne formowanie kształtu nosa. Przed operacją rozszczepu podniebienia za pomocą łyżki ortodontycznej wykonuje się wycisk podniebienia pacjenta. Niestety, na rynku brakuje asortymentu dostosowanego do anatomii tak małych dzieci. Początki projektu Jakiś czas temu do studentów AGH zgłosiła się studentka Collegium Medicum Uniwersytetu Jagiellońskiego Katarzyna Ciuk. Zapytała, czy mogliby pomóc w zaprojektowaniu łyżek ortodontycznych. Ciuk tłumaczyła, że rozszczep wargi i podniebienia jest częstą wadą wrodzoną. Aby zapewnić dzieciom funkcjonalność oraz poprawić walory estetyczne, konieczna jest operacja. W celu zmniejszenia rozszczepu podniebienia zakłada się [...] płytkę, która ma je uformować przed operacją. Wykonanie takiej płytki wymaga wykonania wycisku podniebienia za pomocą łyżki ortodontycznej, a następnie gipsowego odlewu. Dostępne na rynku łyżki do wycisków nie spełniają jednak, niestety, wymagań rozmiarowych dla tak małych dzieci. Zespół z Kół Naukowych AGH Rapid Prototyping i AGH Medical Technology zabrał się więc za zaprojektowanie i wykonanie prototypów elementów spełniających wymagania grupy docelowej. Główne wyzwania Z czym musi się zmierzyć zespół Jakuba Bryły, Marcina Chruścińskiego oraz Michała Kryski? Głównymi wyzwaniami są: wykonanie komponentów z odpowiednią precyzją przy ich niewielkich rozmiarach, a także dobór technologii wytwarzania oraz materiału z certyfikatem użycia medycznego. W połowie kwietnia zespołowi medycznemu przekazano testowy zestaw łyżek ortodontycznych. Jak podkreślono w komunikacie prasowym AGH, elementy zostały wykonane na drukarkach 3D ze specjalistycznego polimeru. Łącznie zaprojektowano i wykonano cztery modele łyżek, każdy w trzech rozmiarach: S, M i L. Kolejne etapy W przypadku wkładek podstawowym celem jest modyfikacja geometrii; wspomina się o dodatkowych systemach utrzymujących element w jednej pozycji. Obecnie trwają prace nad stworzeniem finalnego modelu. Odnosząc się do metody wytwarzania, lider zespołu Jakub Bryła, wyjaśnia: Mamy do wyboru kilka rodzajów technologii druku 3D, rozpoczynając od najbardziej rozpowszechnionych, przez metody druku z żywic światłoutwardzalnych oraz proszków polimerowych. Rozważamy również standardowe techniki, jak odlewanie z użyciem form silikonowych – jednak również i w tym przypadku planujemy wykorzystać metody przyrostowe do wykonania wzorca. Najważniejszym jest, aby finalny produkt spełniał ściśle określone wymagania projektowe – zarówno pod względem geometrii, jak i sztywności. W pierwszych testach planujemy wspomóc się wykonanym modelem nosa dziecka na podstawie plików DICOM z tomografii komputerowej. Zespół dodaje, że choć chodzi, oczywiście, o to, by pomóc małym pacjentom i lekarzom, ważny jest także inny aspekt projektu: zbadanie możliwości, wad i zalet poszczególnych technologii wytwarzania przyrostowego pod kątem produkcji komponentów przeznaczonych do zastosowań medycznych. « powrót do artykułu
-
- rozszczep podniebienia
- rozszczep wargi
- (i 7 więcej)
-
Słonie mogłyby występować na ponad 60% obszaru Afryki, a zajmują jedynie 17% zdatnego dla nich terenu. Przyjrzeliśmy się każdemu kilometrowi kwadratowemu kontynentu. Stwierdziliśmy, że na 62% z przeanalizowanych 29,2 miliona kilometrów występuje odpowiedni dla słoni habitat, mówi główny autor badań, Jake Wall z kenijskiego Mara Elephant Project. Słonie występują jednak na niewielkiej części tego obszaru. To jednocześnie zła i dobra wiadomość. Zdaniem badaczy, afrykańskie słonie mogłyby występować na 18 milionów kilometrów kwadratowych, w tym w wielu miejcach, gdzie ich koegzystencja z ludźmi byłaby bezkonfliktowa. Nie od dzisiaj jest jasne, że zasięg występowania słoni – podobnie jak wielu innych gatunków na Czarnym Lądzie – gwałtownie się kurczy. Przyczynami takiego stanu rzeczy są kłusownictwo, utrata habitatów i rozrastająca się populacja ludzka. Wall i jego zespół chcieli lepiej zrozumieć, jak słonie wykorzystują przestrzeń i co powoduje, że zajmują te a nie inne tereny. Naukowcy przeanalizowali dane dotyczące każdego kilometra kwadratowego Afryki, sprawdzając, gdzie występują warunki, na których słonie byłyby w stanie żyć. Wykorzystali też dane z nadajników GPS, które przez 15 lat były zbierane od 229 słoni. Przyjrzeli się szacie roślinnej, pokrywie drzewnej, temperaturom powierzchni, opadom, dostępności wody, nachyleniu terenu, obecności ludzi oraz obecności terenów chronionych na obszarach, przez które przemieszczały się śledzone słonie. Dzięki temu byli w stanie określić, jakie rodzaju habitatu słonie wybierają i jakie są ekstremalne warunki, które są w stanie tolerować. Naukowcy odkryli, że w Republice Środkowoafrykańskiej oraz Demokratycznej Republice Kongo istnieją olbrzymie tereny potencjalnie wiąż nadające się do zamieszkania przez słonie. Jeszcze niedawno żyły tam setki tysięcy tych zwierząt. Obecnie pozostało 5–10 tysięcy. Uczeni określili też główne obszary, na które słonie się nie zapuszczają. Największe tereny, których unikają, to pustynie Sahara, Kalahari, Danakil oraz miasta i wysokie góry. To pokazuje nam, gdzie mogły znajdować się historyczne zasięgi słoni. Jednak pomiędzy końcem okresu rzymskiego a przybyciem europejskich kolonizatorów brak jest informacji nt. statusu afrykańskich słoni, mówi Iain Douglas-Hamilton, założyciel organizacji Save the Elephants. Badania wykazały, że słonie żyjące na terenach chronionych zajmują zwykle mniejsze terytorium. Uczeni przypuszczają, że zwierzęta wiedzą, iż wychodzenie poza teren chroniony jest niebezpieczne. Jednocześnie około 57% obecnego zasięgu słoni znajduje się poza obszarami chronionymi. Dlaczego jednak słonie zajmują znacznie mniejszy teren niż zdatny do zamieszkania? Dzieje się tak ze względu na presję ze strony człowieka. Zarówno z powodu kłusownictwa jak i zajmowania ich terenów przez ludzi, którzy nie mają zamiaru koegzystować ze słoniami. Kluczowym dla przetrwania słoni będzie ochrona ich habitatów, zwalczenie kłusownictwa oraz przekonanie ludzi, że mogą żyć obok tych wielkich zwierząt. Słonie to wielcy roślinożercy. Obszar ich występowania może się zmniejszyć, ale jeśli damy im szansę mogą znowu zająć tereny, na których niegdyś występowały, mówi Wall. Niestety, obecne trendy szansy takiej nie dają. Fragmentacja habitatu jest tak wielka, że jedynie 7% dzikich terenów ma obszar większy niż 100 km2. Bardzo pilnie musimy uwzględnić potrzeby zwierząt, które potrzebują dużych, wolnych od wpływu człowieka habitatów, dodają uczeni. « powrót do artykułu
-
Po raz pierwszy naukowcy udowodnili, że Pine Island Glacier w Zachodniej Antarktydzie może przekroczyć punkt, poza którym zacznie gwałtownie i nieodwracalnie tracić masę, co będzie miało znaczące konsekwencje dla globalnego poziomu oceanów. Pine Island Glacier to wielki strumień lodowy o powierzchni 175 000 km2 i grubości około 2 kilometrów. Jest to też region najszybszej utraty lodu w Antarktyce. Obecnie Pine Island Glacier wraz z sąsiadującym z nim Thwaites Glacier jest odpowiedzialny za 10% wzrostu poziomu oceanów na całym świecie. Naukowcy już od pewnego czasu ostrzegają, że ten region Antarktyki jest blisko punktu zwrotnego, poza którym dojdzie do nieodwracalnego rozpadu lodu, co w konsekwencji może doprowadzić do rozpadu całej Zachodniej Antarktydy, która zawiera wystarczająco dużo lodu, by doprowadzić do wzrostu poziomu oceanów o ponad trzy metry. Jednak o ile samo stwierdzenie, że istnieje punkt, poza którym lodowiec może się rozpaść to jedno, a wyznaczenie tego punktu dla Pine Island Glacier to zupełnie coś innego. Naukowcy z Northumbria Univeristy wykorzystali najnowsze modele płynięcia lodu i na ich podstawie stworzyli metodę pozwalającą na wyznaczenie wspomnianego punktu zwrotnego dla każdego z lądolodów. Ich model wykazał, że w przypadku Pine Island Glacier istnieją co najmniej trzy punkty krytyczne. Ostatecznym z nich, wyznaczającym koniec istnienia tego strumienia lodowego jest wzrost temperatury oceanów o 1,2 stopnia Celsjusza. Doprowadzi to do nieodwracalnego wycofywania się. Naukowcy mówią,że długoterminowe ocieplenie oraz trendy obserwowane w Circumpolar Deep Water w połączeniu ze zmieniającymi się wzorcami wiatrów na Morzu Amundsena mogą wystawić Pine Island Glacier na długotrwałe działanie wysokich temperatur, co coraz bardziej zwiększa ryzyko wystąpienia warunków prowadzących do jego nieodwracalnego wycofywania się. Istnieje wiele modeli próbujących przewidywać, jak zmiany klimatu wpłyną na Zachodnią Antarktykę, jednak modele te nie pokazują, czy może zostać przekroczony punkt krytyczny, mówi główny autor badań dr. Sebastian Rosier. Już wcześniej mówiło się, że Pine Island Glacier może wejść w fazę nieodwracalnego wycofywania się. Tutaj po raz pierwszy udało się to dokładnie wykazać i wyliczyć. To bardzo ważny moment dla badań nad dynamiką zmian w tym obszarze świata, dodaje profesor Hilmar Gudmundsson. Uzyskane przez nas wyniki osobiście mnie martwią. Jeśli bowiem dojdzie do takiego wydarzenia, wzrost poziomu światowego oceanu będzie liczony w metrach, a procesu tego nie da się powstrzymać. « powrót do artykułu
- 2 odpowiedzi
-
- Pine Island Glacier
- wycofywanie się
-
(i 1 więcej)
Oznaczone tagami: