Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36957
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. Po prawie 4 latach prac badawczych, 63 naukowców z 13 krajów, w tym czterech z Polski rozkodowało genom żyta. W międzynarodowej grupie znaleźli się badacze z Katedry Genetyki, Hodowli i Biotechnologii Roślin (Wydział Kształtowania Środowiska i Rolnictwa) – dr hab. Beata Myśków oraz dr hab. Stefan Stojałowski. Szczegółowy opis kompletnego genomu żyta opublikowano pod koniec marca br. na łamach magazynu Nature Genetics. Autorami badania są członkowie międzynarodowego zespołu The International Rye Genome Sequencing Consortium. Dzięki temu odkryciu będziemy mogli poznać biologię żyta, która może pomóc w doskonaleniu innych roślin uprawnych, powszechniej uprawianych, a z żytem blisko spokrewnionych np: pszenicy, pszenżyta oraz jęczmienia. To wydarzenie jest technicznym kamieniem milowym – powiedział Dr Gordillo, główny hodowca żyta w międzynarodowej firmie hodowlanej KWS. Według badacza rozkodowanie genomu żyta było dużym wyzwaniem naukowym. Genom żyta liczy prawie 8 mld nukleotydów, czyli ponad 2 razy więcej niż DNA człowieka. Z drugiej strony zainteresowanie żytem jako gatunkiem ważnym gospodarczo jest ograniczone do nielicznych krajów, głównie z obszaru Europy Środkowo-Wschodniej. Z tego powodu nakłady finansowe na badania żyta w skali globalnej są niewielkie. Poznaniem sekwencji DNA człowieka był zainteresowany cały świat, sekwencją DNA żyta kilkanaście państw, gdzie jest ono uprawiane  – tłumaczy dr hab. Beata Myśków. Dodatkową ciekawostką jest fakt, iż w trakcie, gdy prace wyżej wspomnianej międzynarodowej grupy badawczej były już mocno zaawansowane, pojawiła się informacja, że grupa naukowców z Chin również pracuje nad zsekwencjonowaniem genomu żyta – dodaje dr hab. Myśków. Konsorcjum międzynarodowe pod nazwą The International Rye Genome Sequencing Consortium pracowało nad sekwencją DNA europejskiej linii żyta, zespół chiński nad azjatycką formą tego gatunku. Wyścig obu zespołów trwający kilkadziesiąt miesięcy zakończył się idealnym remisem. Publikacje zostały złożone do druku w odstępie trzech dni, a finalnie ukazały się w tym samym terminie. Jest to chyba pierwszy taki przypadek, gdy dwa zespoły pracujące nad równie złożonym i długotrwałym przedsięwzięciem, opublikowały swoje wyniki w tym samym dniu – mówi dr hab. Stefan Stojałowski. Rozkodowany genom żyta to baza danych, dzięki której będziemy mogli lepiej zrozumieć biologiczne mechanizmy regulujące procesy życiowe tej rośliny. Zrozumienie, jak funkcjonuje skomplikowany mechanizm jakim są komórki żywego organizmu (rośliny, zwierzęcia, człowieka) umożliwia wyjaśnienie m.in. tego, dlaczego coś działa nie tak, jak byśmy tego chcieli. Teraz będziemy mogli dowiedzieć się dlaczego nasze żyto czasami choruj, daje plony niższe od naszych oczekiwań, dlaczego zbierane z pola ziarna nie zawsze nadaje się do produkcji smacznego pieczywa itd. – tłumaczy dr hab. Stojałowski. Prace nad poznaniem genomu żyta rozpoczęły się już 28 lat temu. Za pierwszy etap tych badań można uznać opublikowanie w 1993 roku pierwszej mapy genetycznej żyta, która była mało precyzyjna, ale obejmowała wszystkie 7 chromosomów żyta. Mapa ta powstała w Wielkiej Brytanii na bazie populacji wytworzonej na szczecińskiej Akademii Rolniczej. W badaniach uczestniczył prof. Piotr Masojć, obecny kierownik Katedry Genetyki, Hodowli i Biotechnologii Roślin – wspomina prof. Stefan Stojałowski. Wśród badaczy z Polski w międzynarodowym konsorcjum pracowały również dr hab. Hanna Bolibok-Brągoszewska oraz prof. dr hab. Monika Rakoczy-Trojanowska z Katedry Genetyki, Hodowli i Biotechnologii Roślin, Instytutu Biologii SGGW w Warszawie. « powrót do artykułu
  2. Kontynentalna skorupa ziemska mogła pojawić się nawet 500 milionów lat wcześniej niż dotychczas przypuszczano. Określenie daty jej powstania jest o tyle istotne, że lepiej pomaga zrozumieć warunki, w jakich na naszej planecie pojawiło się życie. Wietrzenie skorupy kontynentalnej dostarcza do oceanów wielu składników odżywczych, które mogły pomóc w utrzymaniu i rozwoju prymitywnego życia. Dlatego tak ważnym jest odpowiedź na pytanie, kiedy pojawiły się kontynenty. Aby na nie odpowiedzieć Desiree Roerdink z Uniwersytetu w Bergen i jej zespół zbadali próbki skał z 6 miejsc w Australii, RPA i Indiach. W próbkach znajdował się baryt, minerał z grupy siarczanów, który może powstawać w pobliżu kominów hydrotermalnych. Baryt się nie zmienia. Jego skład chemiczny nosi ślady środowiska, w jakim powstawał, stwierdziła Roerdink prezentując wyniki swoich badań w czasie spotkania Europejskiej Unii Nauk Geologicznych. Naukowcy wykorzystali stosunek izotopów strontu, by obliczyć, kiedy rozpoczęło się wietrzenie badanych przez nich skał. Na tej podstawie stwierdzili, że po raz pierwszy proces taki miał miejsce około 3,7 miliarda lat temu. Ziemia powstała przed około 4,5 miliardami lat. Z czasem jej zewnętrzna część ostygła na tyle, że powstała sztywna skorupa pokryta globalnym oceanem. Przed około 4 miliardami lat rozpoczął się archaik, epoka geologiczna, w której pojawiło się życie. Mamy silne dowody na to, że co najmniej 3,5 miliarda lat temu na Ziemi istniały mikroorganizmy. Dokładnie jednak nie wiemy, kiedy życie się pojawiło. Aaron Satkoski z University of Texas mówi, że badania grupy Roerdink pokazują, iż życie mogło pojawić się najpierw na lądzie. Badania te pozwalają nam stwierdzić, kiedy istniały lądy, które mogły pomóc w powstaniu życia, stwierdza uczony. « powrót do artykułu
  3. Sildenafil jest skutecznym środkiem wykorzystywanym u panów, który cierpią na zaburzenia erekcji. Ten specyfik na potencję znany jest szerszemu gronu panów, jako Viagra. Warto przyjrzeć się bliżej tej substancji, dzięki której mężczyzna może odzyskać utraconą radość seksu i prowadzić udane życie seksualne. Sildenafil- czym właściwie jest i w jaki sposób działa? Sildenafil znajdujący się między innymi w niebieskiej tabletce to skuteczna substancja, która sprawdza się u mężczyzn cierpiących na impotencję. Środek ten należy do grupy leków będących selektywnymi i odwracalnymi inhibitorami fosfodiesterazy typu 5. Do innych substancji o podobnym działaniu i skuteczności można zaliczyć tadanafil czy wardenafil. Działanie sildenafilu opiera się na wielu skomplikowanych procesach, a za ich zapoczątkowanie odpowiada tlenek azotu. Tlenek azotu aktywuje się w momencie pobudzenia seksualnego w ciałach jamistych prącia. Z tego względu, aby środek ten mógł zadziałać, niezbędna jest do tego aktywność seksualna. Warto więc skupić się na grze wstępnej i zapewnieniu sobie intensywnych bodźców seksualnych. Potem dochodzi do rozkurczu mięśni gładkich, jakie kontrolują przepływ krwi w ciałach jamistych. Jeśli napięcie mięśni gładkich ulegnie zmniejszeniu, wówczas zwiększa się przepływ krwi w prąciu, a mężczyzna może cieszyć się z pojawienia erekcji. Preparaty na potencję z sildenafilem- kiedy i w jaki sposób przyjmować? Sildenafil możemy dostać w formie tabletek o różnych dawkach. Nie powinniśmy jednak sami sobie ustalać przyjmowanej dawki. Powinien to zrobić lekarz, wtedy zapewnimy sobie bezpieczeństwo przyjmowania specyfiku. Podstawowa dawka wynosi 50 mg, natomiast najwyższa dawka wynosi 100 mg sildenafilu. Dawki te można otrzymać tylko i wyłącznie po wcześniejszym wypisaniu recepty przez lekarza. Zaburzenia erekcji są dla wielu panów niezwykle przykrym i upokarzającym problemem, z tego względu nie chcą oni udać się na konsultację lekarską. Wielu z nich decyduje się na korzystanie z ogólnodostępnych preparatów bez recepty. Przeważnie są to środki ziołowe, ale także sildenafil bez recepty w dawce wynoszącej 25 mg. Tabletki na potencję z sildenafilem zażywa się na ok. godzinę przed planowanym współżyciem. Co ważne, w ciągu 24 h można spożyć tylko jedną tabletkę. Do jej działania potrzebna jest także stymulacja seksualna. Środek na potencję trzeba połknąć i popić wodą. Warto pamiętać, iż spożycie obfitego i tłustego posiłki przed zażyciem leku na potencje może spowolnić jego działanie. Przeważnie środek działa po upływie pół godziny, aczkolwiek najlepsze rezultaty zauważa się po godzinie. Środek na potencję z sildenafilem działa średnio od 3 do 4 godzin. Kto nie może sięgać po sildenafil? Sildenafil został opracowany jedynie dla dorosłych mężczyzn zmagających się z zaburzeniami erekcji. Jest to więc środek dla wszystkich osób, które nie mogą uzyskać bądź utrzymać erekcji, przez co ich stosunki seksualne nie należą do udanych. Viagra, jak i inne środki z tym składnikiem nie mogą być używane przez osoby, które nie skarżą się na kłopoty ze wzwodem. Ponadto, sildenafil nie może być przyjmowany przez osoby niepełnoletnie i kobiety. Zaburzenia erekcji wynikają z wielu czynników: brak ruchu, stres, zmęczenie, otyłość, palenie papierosów. Oprócz tego mogą stanowić sygnał rozwijających się w organizmie mężczyzny chorób. Z tego względu radzi się, aby przed zastosowaniem leku na potencję udać się do lekarza, który znajdzie przyczynę problemu. Ponadto warto zadbać o zdrowy tryb życia. Do najważniejszych przeciwskazań do przyjmowania leków z sildenafilem należą: •    udar mózgu albo zawał serca •    ciężkie zaburzenia czynności wątroby •    niskie ciśnienie tętnicze •    ciężkie choroby układu krążenia •    przyjmowanie w tym samym czasie azotanów albo innych leków będących donorami tlenku azotu •    degeneracyjne zmiany siatkówki, utrata wzroku na skutek niedokrwiennej neuropatii nerwu wzrokowego Warto pamiętać, aby z dużą dozą ostrożności korzystać z takich środków u osób z hemofilią, anemią sierpowatą, białaczką, chorobą wrzodową czy też deformacjami penisa. « powrót do artykułu
  4. Drugi największy na świecie emitent dwutlenku węgla, Stany Zjednoczone, zapowiedział, że do 2030 roku zredukuje emisję o 50–52 procent w porównaniu z emisją z roku 2005. Administracja prezydenta Bidena chce w ten sposób zachęcić inne kraje do wyznaczenia sobie bardziej ambitnych celów przed listopadowym spotkaniem COP26 ONZ. Zapowiedź Białego Domu oznacza duży postęp w porównaniu z dotychczas wyznaczanymi celami. Wcześniej USA obiecywały 28-procentową redukcję do roku 2025. Zgodnie zaś z nowymi zapowiedziami za cztery lata amerykańska emisja zmniejszy się o 38% w porównaniu z rokiem 2005. Zapowiedzi rządu USA, mimo że ambitne, nie są jednak wystarczające. Organizacja Climate Action Tracker, która śledzi, jak poszczególne kraje wypełniają założenia Porozumienia Paryskiego, zgodnie z którymi ludzkość ma powstrzymać globalne ocieplenie na poziomie 1,5 stopnia Celsjusza powyżej epoki przedprzemysłowej mówi, że do roku 2030 Stany Zjednoczone powinny zredukować swoją emisję o 57–63 procent. W najnowszym oświadczeniu Biały Dom powtórzył, że do roku 2035 cała produkcja energii elektrycznej w USA ma się odbywać bezemisyjnie. Zapowiedziano też zwiększenie powierzchni lasów, większe rozpowszechnienie pomp cieplnych w budynkach mieszkalnych oraz mniej energochłonne samochody. USA nie są jedyny krajem, który stawia sobie coraz bardziej ambitne cele. Amerykanie poinformowali o nowych celach kilka dni po tym, gdy Wielka Brytania zapowiedziała, że do roku 2035 zredukuje swoją emisję aż o 78% w porównaniu z rokiem1990. Japonia, która jest 6. na świecie największym konsumentem węgla, obiecuje, że do roku 2030 zmniejszy emisję o 46% w porównaniu z rokiem 2013. Jeszcze niedawno zapowiadano, że będzie to 26%. W tym samym czasie Kanada ma zamiar zredukować swoją emisję o 40–45 procent w porównaniu z rokiem 2005. To znacznie mniej niż potrzebne 60% redukcji, ale dużo więcej niż wcześniej zapowiadane 30%. Nawet prezydent Brazylii, Jair Bolsonaro, zapowiedział bardziej zdecydowana działania. Stwierdził, że do roku 2050 jego kraj stanie się neutralny pod względem emisji węgla, a do roku 2030 zakończy się wylesianie Amazonii. « powrót do artykułu
  5. Członkowie Stowarzyszenia Historyczno-Eksploracyjnego Pamięć z Włostowa przekazali do sandomomierskiej Delegatury Wojewódzkiego Urzędu Ochrony Zabytków znalezioną w Ossolinie koło Klimontowa bullę (pieczęć) ołowianą Eugeniusza IV - papieża w latach 1431-47. Bullę o średnicy 38 i grubości 5 mm odkryto 18 kwietnia. Jest zachowana w całości, w bardzo dobrym stanie (stwierdzono jedynie niewielkie uszkodzenia mechaniczne). Na awersie umieszczono przedstawienia - w ujęciu 3/4 - głów apostołów Pawła (po lewej) i Piotra (po prawej); są one zwrócone do siebie. Głowy oddzielają od siebie łukowate linie z drobnych perełek, między którymi znajduje się umieszczony symetrycznie na osi pieczęci krzyż o rozszerzających się ramionach. Nad przedstawieniami głów widnieje napis SPASPE (litera E jest uszkodzona i słano czytelna), będący akronimem od SANCTUS PAULUS SANCTUS PETRUS. Jak poinformował Kopalnię Wiedzy dr hab. Marek Florek z Delegatury, na rewersie bulli u góry widoczny jest krzyż, poniżej zaś napis rozmieszczony w 3 rzędach: EVGEN/IVS PP/IIII, czyli Eugeniusz Papa (papież) IV (czwórka została zapisana w często stosowany w średniowieczu sposób, jako 4 kolejne łacińskie cyfry I). Dr Florek dodaje, że w chwili obecnej trudno jest ustalić, w jakich okolicznościach bulla, a właściwie jakiś dokument wydany przez papieża Eugeniusza IV i opatrzony jego pieczęcią, trafił do Ossolina. Być może pochodził on z kościoła w pobliskich Goźlicach. Możliwe również, że był pierwotnie przechowywany w archiwum znajdującym się niegdyś na zamku w Ossolinie. Bulla z Ossolina to 2. tego typu znalezisko z okolic Sandomierza. W 2014 r. w Brzeziu koło Opatowa znaleziono połowę podobnej ołowianej pieczęci Jana XXIII (jego pontyfikat przypadał na lata 1410-1414; później uznano go za uzurpatora - antypapieża). Podobnie jak bulla z Brzezia bulla z Ossolina zostanie przekazana do Muzeum Diecezjalnego w Sandomierzu. « powrót do artykułu
  6. Francuscy naukowcy rozwiązali zagadkę, która trapi ludzkość od tysięcy lat. Wraz z nieuchronnie nachodzącym latem wiele osób coraz częściej sięga po chłodne napoje, w tym po piwo. Teraz, dzięki uczonym z Université de Reims Champagne-Ardenne dowiedzieliśmy się, ile bąbelków uwalnia się z przeciętnej 0,5 litrowej szklanki piwa zanim cała piana opadnie. Już wcześniej inny zespół naukowy stwierdził, że w lampce szampana znajduje się około 1 miliona bąbelków. Co z piwem? Naukowcy z Reims oceniają, że ile bąbelków uwolni się z „delikatnie nalanego” piwa typu lager. Lagery są niezwykle popularnymi piwami. Dwutlenek węgla powstaje w nich podczas fermentacji, a dodatkowo jest w wprowadzany do napoju w czasie pakowania. Uczeni najpierw zmierzyli ilość dwutlenku węgla rozpuszczoną w komercyjnym lagerze przed napełnieniem nim szklanki. Następnie, wykorzystując tę informację i przyjmując, że piwo podczas nalewania do kufla ma temperaturę 5,5 stopnia Celsjusza, oszacowali, ile bąbelków powinno unosić się ze standardowego naczynia. Obserwowali też unoszące się bąbelki za pomocą szybko działającej kamery. Wykazały one, że unoszące ku powierzchni bąbelki stają się coraz większe, przechwytując i usuwając z napoju coraz więcej gazu. Na podstawie tak przeprowadzonych badań uczeni stwierdzili, że zanim piana opadnie, z piwa uwolni się od 200 000  do 2 000 000 bąbelków. Naukowców zaskoczył fakt, że niedoskonałości szkła inaczej wpływają na formowanie się bąbelków w szampanie, a inaczej w piwie. W piwie liczba bąbelków rośnie bardziej niż w szampanie, gdy napój jest nalewany do szkła z większymi niedoskonałościami. O wynikach przełomowych badań poinformowano w artykule Cracking open the mystery of how many bubbles are in a glass of beer opublikowanym na łamach pisma Amerykańskiego Towarzystwa Chemicznego. « powrót do artykułu
  7. Setki narzędzi kamiennych używanych przez Homo erectusa odkryli polscy naukowcy w kopalni złota we wschodniej części Sahary w Sudanie. Według archeologów zabytki mają nawet ponad 700 tys. lat. Tak starych świadectw po pobycie człowieka w tym rejonie jeszcze nie znano. Do tego ważnego odkrycia doszło w jednej z porzuconych kopalni złota ok. 70 km na wschód od współczesnego miasta Atbara. We wschodniej części Sudanu na Pustyni Wschodniej, podobnie jak w wielu miejscach Sahary, rozgorzała gorączka złota – w prowizorycznych, odkrywkowych kopalniach ludzie poszukują tego cennego kruszcu. Odsłaniając kolejne warstwy górnicy natknęli się na narzędzia sprzed kilkuset tysięcy lat – opowiada PAP kierownik badań prof. Mirosław Masojć z Instytutu Archeologii Uniwersytetu Wrocławskiego. Informacja dotarła do archeologów. Od kilku lat przemierzają porzucone kopalnie w poszukiwaniu kolejnych zabytków i... ciągle je znajdują. Wśród setek narzędzi kamiennych w jednej z kopalń uwagę naukowców zwróciły uwagę szczególnie tzw. rozłupce. To duże, kilkukilogramowe masywne narzędzia o poprzecznej krawędzi tnącej, które przypominają nieco pięściaki – narzędzia o kształcie migdałowatym, mające obustronnie obciosane krawędzie, które u zbiegu tworzą spiczasty wierzchołek. Rozłupce to typowe narzędzia znane z obecnych obszarów Etiopii i Kenii, które były tam wytwarzane nawet już milion lat temu – opowiada prof. Masojć. Tego typu odkrycie jest dla badaczy nowością. Wcześniej zespół prof. Masojcia odkrywał pięściaki i inne narzędzia, ale nigdy takie, które byłyby technologiczne tak bardzo zbliżone do tych z Afryki równikowej i to tak starych. Badacz uważa, że w miejscu odkrycia zabytków znajdowała się pracownia, w której wytwarzano narzędzia, bo zachowały się zarówno gotowe „produkty”, jak również odłupki powstałe w czasie ich wykonywania. To ślady po obecności afrykańskiej odmiany Homo erectusa (człowieka wyprostowanego) – przodka człowieka współczesnego (Homo sapiens), który pojawił się w Afryce ok. 1,8 mln lat temu, skąd szybko migrował do Eurazji. Archeologom udało się sprecyzować wiek zabytków. Nawarstwienia ziemi i piachu zalegające tuż nad nimi przebadano z pomocą metody optycznie stymulowanej luminescencji (OSL). Okazało się, że liczą one ok. 390 tys. lat. Oznacza to, że warstwy poniżej są z pewnością starsze. Na podstawie stylu wykonania narzędzi uważam, że mogą mieć ponad 700 tys. lat, a może nawet milion lat – podobnie jak ich odpowiedniki dalej na południu Afryki – podkreśla prof. Masojć. Tak sędziwy wiek zabytków to archeologiczna sensacja. Gdy kilka lat temu prof. Masojć informował o odkryciu w tym rejonie narzędzi mających ok. pół miliona lat również były to pierwsze tak stare wytwory ludzkie na Pustyni Wschodniej. Teraz mamy potwierdzenie, że w tym rejonie są zabytki, które są być może nawet dwa razy starsze – podkreśla badacz. Naukowiec zwraca uwagę, że z terenu Egiptu i Sudanu są to najstarsze znane wytwory człowieka, które mają tak dobrze potwierdzoną chronologię. Owszem, na pustyniach znajdowane są pradziejowe narzędzia, ale nigdy do tej pory nie pochodziły z warstw, których wiek możemy tak bezpiecznie określić – zaznacza. W jego ocenie nie można wykluczyć, że w głębszych fragmentach kopalń znajdują się jeszcze starsze zabytki. Jednak dostęp do nich na razie jest utrudniony. Ostatni sezon badawczy miał miejsce pod koniec 2019 r., kiedy sytuacja polityczna była bardzo napięta i w końcu doszło do przewrotu w Sudanie i obaleniu wieloletniego reżimu. Prace były bardzo trudne pod względem logistycznym - brakowało paliwa, musieliśmy też unikać manifestacji, w tym czasie zdarzało się, że ginęli ludzie – wspomina prof. Masojć. Do tej pory badacze znaleźli niemal 200 miejsc, w których zachowały się paleolityczne wyroby kamienne. Część z nich znajduje się w kopalniach (te rozlokowane są ok. 350 km na północ od Chartumu). Znajdują tam różnego rodzaju narzędzia używane zarówno przez Homo erectusa, jak i Homo sapiens. Wiek narzędzi jest bardzo różny – od takich mających przeszło pół miliona lat po 60 tys. lat. « powrót do artykułu
  8. Narodowe Centrum Badań Jądrowych od wielu lat jest wiodącym producentem promieniotwórczego jodu, stosowanego w terapii i diagnostyce medycznej. Naukowcy z Zakładu Badań Reaktorowych nieustannie badają i optymalizują procesy tej produkcji. Najnowszy sposób napromieniania pozwoli na zwiększenie aktywności uzyskanego materiału, ograniczy ilość ciepła wydzielanego podczas produkcji i zmniejszy ilość odpadów promieniotwórczych. Jod-131 jest powszechnie stosowanym radioizotopem, który rozpada się poprzez emisję cząstki beta. Stosowany jest w leczeniu nadczynności tarczycy oraz jej niektórych nowotworów, które wykazują zdolność pochłaniania tego pierwiastka. Jod-131 jest stosowany również jako znacznik w radioterapii np. jako metajodobenzyloguanina -131I (131I-MIBG) w terapii guzów chromochłonnych i nerwiaka płodowego. Obecnie dwutlenek telluru używany jako materiał tarczowy przy produkcji jodu-131 jest najczęściej napromienianym materiałem w reaktorze MARIA – wyjaśnia inż. Anna Talarowska z Zakładu Badań Reaktorowych. Przed każdym cyklem pracy reaktora, do jego kanałów załadowywanych jest średnio około stu czterdziestu zasobników z TeO2. Rocznie napromienianych jest ponad 3000 zasobników w kanałach pionowych reaktora MARIA. Po przetworzeniu w naszym OR POLATOM jod w postaci radiofarmaceutyków lub roztworów radiochemicznych trafia do odbiorców na całym świecie. Modernizacja procesu napromieniania telluru pozwoli na bardziej wydajną produkcję. Jod–131 powstaje w wyniku przemiany β- niestabilnego izotopu 131mTe. Ten ostatni powstaje w wyniku wychwytu neutronu przez atom telluru–130. Warunki pozwalające na wychwyt neutronu przez 130Te panują w reaktorach badawczych takich jak reaktor MARIA. Rdzenie tych reaktorów są projektowane w taki sposób, aby możliwe było umieszczenie zasobników z materiałem tarczowym na określony, optymalny czas napromienienia. Do reaktora MARIA jako tarcza trafia tzw. tellur naturalny, czyli taki, jaki występuje naturalnie w przyrodzie – tłumaczy uczona. Składa się on z ośmiu stabilnych izotopów. Izotop 130Te stanowi jedynie ok. 34 % naturalnego telluru. Pozostałe stabilne izotopy telluru mają większy od 130Te przekrój czynny na wychwyt neutronów. Dzięki dużym wartościom przekrojów czynnych w tellurze znajdującym się w polu neutronów termicznych, a szczególnie epitermicznych, ma miejsce duża generacja ciepła, będącego rezultatem intensywnie zachodzących reakcji jądrowych. Dotyczy to szczególnie izotopu 123Te (stanowiącego 0,9 % naturalnego telluru), którego przekrój czynny na wychwyt neutronów to jest ponad 1000 razy większy, niż w przypadku 130Te. Oznacza to, że dużo łatwiej zachodzi reakcja neutronów z 123Te niż 130Te i jest to efekt niepożądany. Istotą proponowanej zmiany w sposobie produkcji jest napromieniowanie tarcz z naturalnym tellurem o wzbogaceniu w 130Te do 95% (zamiast dotychczasowych 33,8%). Dzięki czemu zmniejszy się liczba reakcji neutronów z innymi izotopami telluru, które stanowią nieużyteczną część końcowego produktu, a znaczącą podwyższy się wydajność napromieniania. Nowy sposób napromieniania tarcz pozwoli na uzyskanie większej aktywności 131I, przy jednoczesnym zmniejszeniu ilość odpadów produkcyjnych i bardziej efektywnym wykorzystaniu kanałów pionowych reaktora. Zwiększenie aktywności końcowego produktu, zmniejszenie ilości odpadów i optymalizacja wykorzystania kanałów, to krok ku wydajniejszej produkcji, a więc też szerszemu dostępowi tego radioizotopu. Cały czas analizujemy procesy napromieniania tak aby możliwie najlepiej zmaksymalizować ich efekty – podkreśla inż. Talarowska. Otrzymane wyniki dotychczasowych analiz pozwalają na wyciągnięcie dwóch zasadniczych wniosków: zastosowanie wzbogaconego telluru znacznie zwiększa wydajność produkcji oraz zmniejsza generację ciepła w zasobnikach. Obecnie trwają prace eksperymentalne, których wyniki pozwolą dokonać końcowej oceny. Z punktu widzenia reaktora MARIA niezbędne jest przygotowanie dokumentacji – m.in. instrukcji i procedur. « powrót do artykułu
  9. Indyjski pieprz długi (Piper longum) jest wykorzystywany w medycynie ajurwedyjskiej do leczenia problemów układu pokarmowego, chorób płuc czy zapalenia stawów. Brak jednak naukowych dowodów, by pomagał na te schorzenia. Wiadomo jednak, że zawarty w nim alkaloid o nazwie piperlongumina zabija komórki nowotworowe. Teraz naukowcy odkryli, w jaki sposób zwalcza on glejaka Międzynarodowy zespół naukowy szczegółowo opisał na łamach ACS Central Science, jak piperlongumina przyłącza się do proteiny TRPV2 i upośledza jej aktywność. W glejaku dochodzi do nadmiernej ekspresji TRPV2, co wydaje się napędzać rozwój guza. Na podstawie dwóch różnych zwierzęcych modeli tej choroby naukowcy wykazali, że leczenie piperlonguminą znacząco zmniejsza guzy i przedłuża życie myszy. Dowiedli też, że alkaloid selektywnie niszczy ludzkie komórki glejaka. Badania te dają nam znacznie lepszy pogląd na sposób oddziaływania piperlonguminy na glejaka. Dzięki nim zyskaliśmy podstawy, na których można tworzyć bardziej efektywne metody leczenia, mówi współautorka badań Vera Moiseenkova-Bell z Penn Medicine. Nasze badania mogą mieć praktyczny wpływ na zdrowie ludzi cierpiących na tę straszną chorobę, dodaje Gonçalo J. L. Bernardes z Uniwersytetu w Lizbonie i Cambridge University. Badania rozpoczęły się od szerszego projektu, w ramach którego Bernardes badał przeciwnowotworowe właściwości piperlonguminy. Wraz z zespołem wykorzystał zaawansowane metody maszynowego uczenia się, by sprawdzić potencjalne metody interakcji tego alkaloidu z białkami kanałów jonowych TRP. Kanały jonowe to niewielkie otwory w błonach komórkowych, które umożliwiają przepływ określonych jonów. Kanały są wrażliwe na określony stymulanty, które je otwierają lub zamykają, regulując w ten sposób przepływ jonów. Bernardes i jego zespół odkryli, że piperlongumina działa jak inhibitor kanału jonowego TRPV2. Kanał ten istnieje w wielu typach komórek, jednak jego rola nie jest dobrze rozumiana. Po tym spostrzeżeniu naukowcy poprosili o pomoc laboratorium Moiseenkovej-Bell, które specjalizuje się w mikroskopii krioelektronowej. To pozwoliło na dokładne określenie miejsca, w którym piperlongumina łączy się z TRPV2 i go blokuje. Następnie przystąpiono do kolejnych eksperymentów, w czasie których uczeni przyjrzeli się komórkom różnych nowotworów i stwierdzili, że komórki wielopostaciowego, najbardziej rozpowszechnionego nowotworu mózgu, który niezwykle trudno jest leczyć, wykazują nadmierną ekspresję TRPV2. I, co niezwykle ważne, są bardzo wrażliwe na utratę tego kanału jonowego. Okazało się też, że istnieje związek pomiędzy większą ekspresją TRPV2 a większym stopniem agresywności nowotworu i gorszymi rokowaniami dla pacjenta. Nowotwory mózgu trudno jest leczyć m.in. dlatego, że lekom trudno jest pokonać barierę krew-mózg. Dlatego też uczeni opracowali specjalną strukturę z hydrożelu, którą można wypełnić piperlonguminą i wprowadzić do mózgu. Podczas eksperymentów wykazano, że taka struktura, która uwalniała alkaloid przez około 8 dni, przyczyniła się do niemal całkowitego zniszczenia guza i znacznego wydłużenia życia myszy. Teraz Bernardes i jego zespół pracują nad przygotowaniem badań przedklinicznych. Mają nadzieję, że w przyszłości uda im się rozpocząć badania kliniczne nad leczeniem glejaka za pomocą piperlonguminy. « powrót do artykułu
  10. Rak prostaty to obecnie jeden z dwóch najczęściej rozpoznawanych nowotworów złośliwych u mężczyzn. Zapadalność na raka gruczołu krokowego rośnie z wiekiem. To poważna choroba, jednak wcześnie wykryta jest uleczalna. Szybka, właściwa diagnostyka pozwala odpowiednio dobrać terapię i zwiększyć szansę pacjenta na przeżycie. Najdokładniej zmiany nowotworowe powala zobrazować rezonans magnetyczny (MRI). Niestety, badanie raka prostaty za pomocą tej metody jest skomplikowane. Niezbędne jest badanie wielu cech nowotworu, co utrudnia i znacznie wydłuża interpretację wyniku. Każdy otrzymany obraz musi być przeanalizowany osobno. Diagnostyka ta jest skomplikowana i trudniejsza niż w przypadku większości nowotworów złośliwych. Otrzymane wyniki są oceniane według skali PI-RADS (Prostate Imaging-Reporting and Data System), która umożliwia rozróżnienie zmian istotnych klinicznie. Analiza ta wymaga specjalistycznej wiedzy radiologów, którzy stanowią w Polsce zaledwie ok. 2 proc. lekarzy, co dodatkowo wydłuża czas oczekiwania na badanie i właściwą diagnozę. Interpretacja wyników jest subiektywna i zauważalne są różnice pomiędzy specjalistami doświadczonymi a początkującymi. Badania wykazały, że radiolodzy różnie interpretują, czy potencjalna zmiana nowotworowa jest inwazyjna. W Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym (OPI PIB) prowadzimy interdyscyplinarne badania, których wyniki mają praktyczne zastosowanie w wielu dziedzinach. Jednym z obszarów jest wykorzystanie najnowszych technologii IT w medycynie i ochronie zdrowia. Z naszych badań wynika, że sztuczna inteligencja może skutecznie usprawnić pracę lekarzy. Rezultaty są bardzo obiecujące i jestem przekonany, że także pomogą one innym naukowcom opracować nowoczesne narzędzia technologiczne, mające zastosowanie w diagnostyce nie tylko raka prostaty, ale także i innych chorób – mówi dr inż. Jarosław Protasiewicz, dyrektor Ośrodka Przetwarzania Informacji – Państwowego Instytutu Badawczego (OPI PIB). Ograniczenie liczby bolesnych biopsji Naukowcy z Laboratorium Stosowanej Sztucznej Inteligencji w OPI PIB opracowali platformę badawczą eRADS, która służy do standaryzacji opisów raportów medycznych. Narzędzie to pozwala obiektywnie ocenić istotność kliniczną zmiany na podstawie pięciostopniowej skali PI-RADS. Platforma umożliwia także zbieranie danych z badań, co w przyszłości pomoże stworzyć rozwiązania, które automatycznie będą szacowały cechy istotne klinicznie. W tym przypadku sztuczną inteligencję zastosowano do wspomagania procesów decyzyjnych. Badacze OPI PIB przeprowadzili badania pilotażowe z udziałem 16 pacjentów, diagnozowanych przez dwóch radiologów podczas ich dyżuru w Centralnym Szpitalu Klinicznym MSWiA w Warszawie. Specjaliści ci różnili się stażem pracy w zawodzie. Ich celem była ocena rzetelności oraz wstępnej użyteczności klinicznej systemu eRADS. Wyniki badania pilotażowego są obiecujące. Oceny istotności klinicznej zmiany przez radiologów z wykorzystaniem narzędzia opracowanego przez naukowców OPI PIB są bardziej zgodne, niż gdy dokonują oni analizy bez użycia platformy. Zastosowanie eRADS pomaga zmniejszyć różnice między jakością diagnozy lekarzy doświadczonych i niedoświadczonych. Precyzyjna ocena zmian pozwoli znacznie ograniczyć liczbę pacjentów, którzy są wysyłani na biopsję. W przypadku badania prostaty wiąże się ona z dyskomfortem pacjenta. Polega na pobraniu materiału z kilku do kilkunastu wkłuć. Sieci neuronowe zastąpią lekarzy? W naszym laboratorium badaliśmy także wykorzystanie w diagnostyce raka prostaty innych obszarów sztucznej inteligencji. Analizowaliśmy zastosowanie narzędzi wykorzystujących uczenie maszynowe i głębokie. Naszym celem było porównanie otrzymanych wyników z diagnozami postawionymi przez doświadczonych i niedoświadczonych radiologów. Model predykcyjny istotności klinicznej zmian, oparty o narzędzia uczenia maszynowego, bazował na cechach obrazu (np. jednorodności) w badanych komórkach i ich otoczeniu. Uzyskaliśmy model trafnie klasyfikujący istotne klinicznie zmiany z prawdopodobieństwem 75 proc., co można porównać do diagnozy niedoświadczonego lekarza. Najbardziej obiecujące rezultaty otrzymaliśmy jednak z zastosowania wiedzy domenowej w architekturze sieci neuronowych. Opracowane modele dają lepszą jakość diagnozy zmian nowotworowych w porównaniu z ocenami niedoświadczonych i doświadczonych radiologów, stawiając trafną diagnozę z prawdopodobieństwem 84 proc. – mówi Piotr Sobecki, kierownik Laboratorium Stosowanej Sztucznej Inteligencji w OPI PIB. Podsumowując, zastosowanie wiedzy domenowej w architekturze sieci neuronowych wpływa na szybkość uczenia modelu w przypadku diagnostyki raka prostaty. Analizowano efekt lokalizacji zmiany w prostacie i niezależnie od tego czynnika, wyniki otrzymane za pomocą modeli wykorzystujących sieci neuronowe były takie same lub lepsze od diagnozy postawionej przez doświadczonych radiologów. Potwierdziły to wyniki badania OPI PIB z użyciem danych historycznych od 6 radiologów oceniających 32 zmiany nowotworowe. Sztuczna inteligencja wykorzystująca uczenie głębokie nie zastąpi jednak lekarzy, ale ułatwi im pracę i przyspieszy rozpoczęcie leczenia pacjenta. Wciąż jednak mało jest otwartych zbiorów baz danych, które można wykorzystać do usprawnienia algorytmów sztucznej inteligencji. Należy pamiętać, że modele te są tak dobre, jak dane, na których zostały wyuczone. Chodzi zarówno o ich liczebność, jak i o jakość. 1) W Polsce z powodu raka prostaty codziennie umiera około 15 pacjentów, a choroba ta jest diagnozowana u co 8. mężczyzny 2) Ważne jest szybkie wykrycie choroby i podjęcie odpowiedniego leczenia. 3) Niestety, diagnostyka raka prostaty jest skomplikowana i trudna w porównaniu do metod wykrywania innych nowotworów. 4) Badacze z Laboratorium Stosowanej Sztucznej Inteligencji w Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym (OPI PIB) wykorzystali sztuczną inteligencję (SI) do usprawnienia diagnostyki obrazowej raka prostaty. 5) Najlepsze rezultaty uzyskali z zastosowaniem sieci neuronowych. Jakość otrzymanej diagnozy była na poziomie doświadczonego lekarza specjalisty lub wyższa.   « powrót do artykułu
  11. Odkryto najbliższą Ziemi czarną dziurę. Obiektowi nadano nazwę „Jednorożec” nie tylko dlatego, że znajduje się w Gwiazdozbiorze Jednorożca, ale również dlatego, że ta czarna dziura ma wyjątkowe właściwości. Co więcej, Jednorożec ma towarzysza, czerwonego olbrzyma, który zbliża się do końca swojego żywota. Nasze Słońce również stanie się w przyszłości czerwonym olbrzymem. Czarna dziura znajduje się w odległości zaledwie 1500 lat świetlnych od Ziemi. Ma też niezwykle małą masę, jest zaledwie 3-krotnie bardziej masywna niż Słońce. Ten system jest tak dziwny, że musieliśmy nazwać go Jednorożcem, mówi doktorant Tharindu Jayasinghe, którego zespól badał Jednorożca. Odkrycia dokonano podczas analizy danych z All Sky Automated Survey i Transiting Exopanet Survey Satellite. Jayasinghe i jego koledzy zauważyli coś niezwykłego – czerwonego olbrzyma, który okresowo zmienia jasność, co sugerowało, iż jest przez coś przyciągany i zmienia kształt. Uczeni przeprowadzili więc badania i doszli do wniosku, że tym, co wpływa na kształt gwiazdy jest prawdopodobnie czarna dziura o masie zaledwie 3 mas Słońca. Dla porównania, czarna dziura znajdująca się w centrum Drogi Mlecznej ma masę około 4,3 miliona ma Słońca. Tak, jak Księżyc deformuje ziemskie oceany, które przybliżają i oddalają się od niego, wywołując pływy, tak czarna dziura przyciąga gwiazdę, powodując, że wzdłuż jednej osi jest ona dłuższa niż wzdłuż drugiej, wyjaśnia Todd Thompson, dziekan Wydziału Astronomii na Ohio State University. Najprostszym wyjaśnieniem jest w tym przypadku istnienie czarnej dziury i jest tutaj najbardziej prawdopodobnym. « powrót do artykułu
  12. W 2010 roku podczas budowy metra w Salonikach odkopano trójnawową bazylikę. Teraz archeolodzy dokonali w niej wyjątkowego odkrycia – znaleźli grób gockiego wojownika pochowanego wraz bronią. To jedyne takie odkrycie nie tylko w Salonikach, ale i na terenie całej greckiej Macedonii. We wczesnochrześcijańskiej bazylice znaleziono wiele grobów. Jeden z nich, datowany na podstawie ceramiki i innych przedmiotów, pochodzi z początku V wieku. Znajduje się w nim szkielet mężczyzny i pozostałości broni, z której najlepiej zachował się miecz. Obok spoczywają resztki sztyletu i umbo (elementu tarczy). Jak mówi archeolog Melina Paisidou, tym, co zdradza tożsamość wojownika jest fakt, iż po jego śmierci miecz "został celowo wygięty, ale nie złamany". Szczególnie interesujący jest fakt, że podczas wykopalisk z 2010 roku odkryto część wielkiego cmentarza. Z czasem okazało się, że znajduje się tam około 3000 pochówków różnego typu, które powstawały od okresu hellenistycznego do końca starożytności. Wspomnianą na wstępie bazylikę zbudowano tak, by obejmowała ona część grobów. To zaś wskazuje, że pochowani tam ludzie byli ważni dla chrześcijan. Obejmowała ona też grób wojownika, a fakt, iż został on pochowany z bronią również miał go wyróżnić. Wszystko wskazuje na to, że mamy tu do czynienia z Gotem. Bizantyjscy cesarze wynajmowali gockich wojowników, a o pochodzeniu etnicznym pochówku świadczy zarówno typ broni, jak i fakt jej wygięcia po śmierci. Dotychczas tego typu znaleziska były znane z Europy Zachodniej. « powrót do artykułu
  13. Leczenie wielu schorzeń neurologicznych i psychicznych, jak: depresja, padaczka, stwardnienie rozsiane czy objawy psychotyczne nie byłoby możliwe bez postępów w badaniach środków farmakologicznych, które są lub mogą być wykorzystywane w chorobach układu nerwowego. Od ponad stu lat naukowcy stosują coraz bardziej innowacyjne metody służące wynalezieniu skutecznych leków. Współczesne badania mogą umożliwić stworzenie nowych substancji, które będą wykazywały się zadowalającą skutecznością w terapii tych schorzeń. Eksperci o tajnikach psychofarmakologii Dziedzinami farmakologii skoncentrowanymi na prowadzeniu takich badań są psychofarmakologia i neurofarmakologia. Celem prac naukowców zajmujących się tymi dziedzinami jest również poszukiwanie podłoża patofizjologicznego chorób oraz nowych i obiecujących punktów uchwytu dla leków. Znaczącym obszarem zainteresowań, w szczególności psychofarmakologii, jest także badanie własności wszelkich środków o działaniu psychoaktywnym, w tym szerokiego wachlarza substancji uzależniających. Tajniki neuro- i psychofarmakologii przybliżają dr hab. Janusz Szyndler z Katedry i Zakładu Farmakologii Doświadczalnej i Klinicznej WUM; dr Natalia Chmielewska z Zakładu Neurochemii, Instytutu Psychiatrii i Neurologii w Warszawie oraz Katedry i Zakładu Farmakologii Doświadczalnej i Klinicznej WUM i dr hab. Adam Hamed z Pracowni Pamięci Przestrzennej, Instytutu Biologii Doświadczalnej im. M. Nenckiego PAN. Klucz do nowoczesnych terapii Współcześnie neurofarmakologia oraz psychofarmakologia ściśle współpracują z innymi dziedzinami medycyny, takimi jak: fizjologia, genetyka, immunologia, neurologia i psychiatria, w celu określenia dokładnego podłoża chorób układu nerwowego, ale też w celu stworzenia skutecznych metod terapii. Najnowocześniejsze substancje są owocem takiej interdyscyplinarnej współpracy. Jako przykład można przytoczyć nowe terapie stosowane w leczeniu rdzeniowego zaniku mięśni, stwardnienia rozsianego czy w zaburzeniach nastroju. Niemniej ciągle istnieje wiele obszarów wymagających ogromnego nakładu pracy. Od litu do pierwszych leków przeciwpadaczkowych Zidentyfikowanie na przełomie XIX i XX wieku przez Charlesa Sherringtona i Ramóna y Cajala synaps i receptorów jako miejsc działania neuroprzekaźników, było przełomowym wydarzeniem rozpoczynającym okres odkryć w psycho- i neurofarmakologii, chociaż na leki, które mogły być stosowane w powszechnej praktyce przyszło jeszcze czekać pół wieku. W roku 1920 po raz pierwszy w piśmiennictwie, w tytule publikacji farmakologa Davida Machta pracującego na Uniwersytecie Hopkinsa, pojawił się termin „psychofarmakologia”. Epokę nowoczesnej psychofarmakologii rozpoczęło zastosowanie litu do leczenia manii przez Johna F.J. Cade’a w 1949 r. Niewiele później, bo w roku 1952, pojawiła się chloropromazyna, która była pierwszym skutecznym lekiem hamującym objawy psychotyczne. Pod koniec lat 50. w leczeniu depresji rozpoczęto stosowanie imipraminy. Ze strony neurologicznej pierwsze leki przeciwpadaczkowe, takie jak fenytoina, której stosowanie w leczeniu padaczki rozpoczęto już w 1936 r., również stanowiły ogromne osiągnięcie. Warto zauważyć, że o ile pierwsze leki przeciwpsychotyczne zostały zastąpione przez nowsze pochodne, to fenytoina nadal stanowi ważny lek stosowany w leczeniu padaczki. „Dekada mózgu” i leki działające molekularnie Kolejnym istotnym okresem w rozwoju obu dziedzin farmakologii były lata 90. Ogłoszenie przez George’a W. Busha „dekady mózgu” spowodowało rozpoczęcie epoki psychoneurofarmakologii molekularnej. Postęp w technikach genetycznych umożliwił badania nad lekami działającymi molekularnie, w tym nad terapią genową, która stanowi pomost pomiędzy zdobyczami farmakologii i genetyki. Obecnie badania w neuro- i psychofarmakologii koncentrują się na wykorzystaniu zaawansowanych technik molekularnych, rozwoju medycyny personalizowanej, jak również badaniu substancji, których mechanizmy działania związane są z wpływem na ekspresję genów. Techniki genetyczne i narzędzia biologii molekularnej stopniowo wypierają z badań neuro- i psychofarmakologicznych metody klasyczne, chociaż jak dotąd nie wiąże się to z radykalnymi zmianami w efektywności leczenia chorób neurologicznych. Badania eksperymentalne W badaniach psycho- i neurofarmakologii eksperymentalnej w szerokim zakresie wykorzystuje się modele zwierzęce. Mimo iż krytykowane ze względu na nie dość dokładne odwzorowanie patologii stwierdzanych u ludzi, wydają się być podstawowym narzędziem badawczym, zwłaszcza na wstępnym etapie badań. Wiadomo także, że postęp w wielu dyscyplinach medycznych był możliwy jedynie ze względu na wykorzystanie do tego celu modeli zwierzęcych. Co więcej, niemal wszystkie badania w dziedzinie fizjologii i medycyny uhonorowane Nagrodą Nobla wykorzystywały modele zwierzęce, co dodatkowo potwierdza ich niebagatelne znaczenie. Należy równocześnie podkreślić, że wykorzystywanie zwierząt do badań zawsze podlega weryfikacji przez komisję bioetyczną, a wysoka jakość opieki nad zwierzętami zapewnia powtarzalność i wysoką wartość uzyskiwanych wyników. Innowacyjne techniki szansą na nowoczesne i skuteczne leki Klasyczne podejście do badań neuropsychofarmakologicznych w ostatniej dekadzie zostało skorygowane poprzez wprowadzanie nowych technik m.in. opto- oraz chemogenetycznych. Współczesne badania farmakologiczne obejmują zagadnienia neuronauk wraz ze szczegółową nieinwazyjną analizą behawioralną modulowaną selektywnie poprzez hamowanie bądź aktywację konkretnych obwodów neuronalnych. Dzięki metodom chemogenetycznym jesteśmy w stanie czasowo aktywować oraz hamować wybrane obwody neuronalne z niespotykaną do tej pory precyzją. Kolejną innowacyjną metodą ostatniej dekady jest optogenetyka, która może być narzędziem stosowanym w badaniach psycho- i neurofarmakologicznych. Metoda ta pozwala na wprowadzenie do neuronów w wybranej strukturze mózgu genów kodujących światłoczułe białka. Dzięki temu zabiegowi światłoczułe receptory umiejscawiane są w wybranej populacji neuronalnej. Technika ta otwiera ogromne możliwości dla badań psycho-neurofarmakologicznych, neurofizjologicznych oraz behawioralnych. Dotychczas udało się uzyskać wiele nowych danych dotyczących dysfunkcji struktur neuronalnych odpowiadających za uzależnienia, lęk czy pamięć. Badacze mają nadzieję, że dane te pozwolą na stworzenie nowych substancji, które będą wykazywały się zadowalającą skutecznością w terapii tych trudnych do leczenia schorzeń. Epigenetyka kolejnym kamieniem milowym W ostatnich latach bardzo duże zainteresowanie budzą zagadnienia związane z epigenetyką, której mechanizmy, jak się wydaje, mają niebagatelny udział w patogenezie chorób psychicznych i neurologicznych. Obecnie uważa się, że interwencje farmakologiczne wpływające na mechanizmy epigenetyczne mogą zmienić sposób leczenia padaczki, depresji czy PTSD. Wielu autorów skłania się do opinii, że epigenetyka stanowi kolejny kamień milowy w rozwoju terapii chorób neurologicznych i psychicznych. Coraz więcej danych wskazuje, że analiza mechanizmów epigenetycznych w chorobach to nie tylko perspektywa wyjaśnienia podłoża wielu schorzeń, zwłaszcza psychicznych, ale także możliwość interwencji na wczesnym etapie chorób, w podłożu których istotną rolę odgrywają czynniki genetyczne. « powrót do artykułu
  14. Łazik Perseverance dokonał kolejnego ważnego kroku w kierunku załogowej eksploracji Marsa. Znajdujący się na nim instrument MOXIE (Mars Oxygen In-Situ Resource Utilization Experiment) wykorzystał bogatą w węgiel atmosferę Marsa do wytworzenia tlenu. Udany eksperyment przeprowadzono przed dwoma dniami, 20 kwietnia. Bez możliwości produkcji i przechowywania tleny na Marsie trudno będzie myśleć o załogowej misji na Czerwoną Planetę. To krytyczny krok w kierunku zamiany dwutlenku węgla na tlen na Marsie. MOXIE ma jeszcze sporo do roboty, ale uzyskane właśnie wyniki są niezwykle obiecujące, gdyż pewnego dnia chcemy wysłać ludzi na Marsa. Tlen to nie tylko coś, czym oddychamy. Napędy rakietowe zależą od tlenu, a przyszłe misje załogowe będą uzależnione od produkcji na Marsie paliwa, które pozwoli astronautom wrócić do domu, mówi Jim Reuter dyrektor w Space Technology Mission Directorate (STMD). Inżynierowie obliczają, że do przywiezienia 4 astronautów z Marsa na Ziemię rakieta będzie potrzebowała 7 ton paliwa i 25 ton tlenu. To znacznie więcej, niż potrzeba ludziom do oddychania. Ci sami astronauci podczas rocznego pobytu na Marsie zużyją może 1 tonę tlenu, mówi Michael Hecht z Massachusetts Institute of Technology. Przewożenie 25 ton tlenu z Ziemi na Marsa byłoby bardzo trudnym i kosztownym przedsięwzięciem. Znacznie łatwiej będzie przetransportować większą wersję MOXIE, 1-tonowe urządzenie, które na miejscu wyprodukuje tlen potrzebny do powrotu. Atmosfera Marsa w 96% składa się z dwutlenku węgla. MOXIE oddziela atomy tlenu od molekuł dwutlenku węgla, uwalniając do atmosfery Marsa tlenek węgla. Konwersja odbywa się w temperaturze około 800 stopni Celsjusza, dlatego MOXIE jest zbudowany ze specjalnych materiałów, w tym wydrukowanych w 3D stopów aluminium, w których odbywa się ogrzewanie i chłodzenie gazów oraz aerożelu działającego jak izolacja. Z zewnątrz MOXIE pokryte jest cienką warstwą złota, które zatrzymuje promieniowanie podczerwone wewnątrz urządzenia, chroniąc w ten sposób inne elementy łazika Perseverance. Podczas pierwszego testu MOXIE wytworzył około 5 gramów tlenu, co wystarczyłoby człowiekowi na około 10 minut oddychania. Urządzenie jest w stanie wytworzyć do 10 gramów tlenu na godzinę. Przeprowadzony właśnie test miał pokazać, czy urządzenie bez szwanku przetrwało start, podróż i lądowanie na Marsie. NASA chce jeszcze co najmniej 9-krotnie prowadzić testy MOXIE. To nie jest po prostu pierwsze urządzenie, które wyprodukowało tlen na innej planecie. To pierwsza technologia tego typu, która ma wspomóc przyszłe misje wykorzystując lokalnie występujące zasoby, stwierdza Trudy Kortes odpowiedzialna w STMD za demonstracje technologii. « powrót do artykułu
  15. Pod Olsztynem znaleziono świetnie zachowany średniowieczny miecz takiego typu, jaki był używany podczas bitwy pod Grunwaldem. Sensacyjne znalezisko, jakie zdarza się raz na kilkadziesiąt lat, składa się z miecza, pochwy, pasa i dwóch noży. Zabytki pochodzą z przełomu XIV i XV wieku, niewykluczone zatem, że ich właściciel rzeczywiście brał udział w bitwie pod Grunwaldem. Miecz i towarzyszące mu przedmioty znalazł miłośnik archeologii Aleksander Miedwiediew. Znalezione artefakty trafią do Muzeum Bitwy pod Grunwaldem. Zestaw orężny zostanie teraz poddany czynnościom konserwacyjnym i badawczym. Mamy pewne podejrzenia, co do statusu społecznego średniowiecznego właściciela miecza i jesteśmy ciekawi, co kryje się pod warstwą rdzy. Głębiej zbadamy również samo miejsce wydobycia zabytku, by poznać kontekst sytuacyjny jego pochodzenia. Tak drogocenne przedmioty w średniowieczu rzadko kiedy zostawały w ziemi, mówi dyrektor Muzeum, Szymon Drej. Miecze i towarzyszące im wyposażenie były czymś naprawdę cennym, zatem wątpliwe, by właściciel dobrowolnie je porzucił. To nieodłączna część naszego regionalnego dziedzictwa. Jak wiemy, działania militarne bitwy pod Grunwaldem wykraczają przecież poza teren pól pod Stębarkiem i poza połowę lipca 1410 roku, dlatego znalezisko pobudza wyobraźnię. Atrakcyjnością stanu zachowania automatycznie przenosi w czasy grunwaldzkiego rycerstwa – stwierdził marszałek województwa warmińsko-mazurskiego Gustaw Marek Brzezin, na którego ręce znalazca przekazał bezcenne przedmioty. Na szczególne wyrazy uznania zasługuje postawa darczyńcy, który sprawił, że tak unikatowe zabytki będą mogły przemówić do wyobraźni szerokiego grona odbiorców, dodał. « powrót do artykułu
  16. Studenci Akademii Górniczo-Hutniczej (AGH) pracują nad udoskonaleniem modeli łyżek ortodontycznych i wkładek donosowych (stentów), stosowanych w opiece okołooperacyjnej dzieci z rozszczepem wargi i podniebienia. Odbywa się to we współpracy z ekspertami z Uniwersyteckiego Szpitala Dziecięcego w Krakowie i studentami z Collegium Medicum Uniwersytetu Jagiellońskiego. Dzięki temu projektowi mają powstać modele lepiej dostosowane do potrzeb małych pacjentów. Jak podkreślają specjaliści, plastykę wargi przeprowadza się już u 12-tygodniowych dzieci. Niekiedy po takiej operacji zakłada się specjalistyczne wkładki, które wspomagają poprawne formowanie kształtu nosa. Przed operacją rozszczepu podniebienia za pomocą łyżki ortodontycznej wykonuje się wycisk podniebienia pacjenta. Niestety, na rynku brakuje asortymentu dostosowanego do anatomii tak małych dzieci. Początki projektu Jakiś czas temu do studentów AGH zgłosiła się studentka Collegium Medicum Uniwersytetu Jagiellońskiego Katarzyna Ciuk. Zapytała, czy mogliby pomóc w zaprojektowaniu łyżek ortodontycznych. Ciuk tłumaczyła, że rozszczep wargi i podniebienia jest częstą wadą wrodzoną. Aby zapewnić dzieciom funkcjonalność oraz poprawić walory estetyczne, konieczna jest operacja. W celu zmniejszenia rozszczepu podniebienia zakłada się [...] płytkę, która ma je uformować przed operacją. Wykonanie takiej płytki wymaga wykonania wycisku podniebienia za pomocą łyżki ortodontycznej, a następnie gipsowego odlewu. Dostępne na rynku łyżki do wycisków nie spełniają jednak, niestety, wymagań rozmiarowych dla tak małych dzieci. Zespół z Kół Naukowych AGH Rapid Prototyping i AGH Medical Technology zabrał się więc za zaprojektowanie i wykonanie prototypów elementów spełniających wymagania grupy docelowej. Główne wyzwania Z czym musi się zmierzyć zespół Jakuba Bryły, Marcina Chruścińskiego oraz Michała Kryski? Głównymi wyzwaniami są:  wykonanie komponentów z odpowiednią precyzją przy ich niewielkich rozmiarach, a także dobór technologii wytwarzania oraz materiału z certyfikatem użycia medycznego. W połowie kwietnia zespołowi medycznemu przekazano testowy zestaw łyżek ortodontycznych. Jak podkreślono w komunikacie prasowym AGH, elementy zostały wykonane na drukarkach 3D ze specjalistycznego polimeru. Łącznie zaprojektowano i wykonano cztery modele łyżek, każdy w trzech rozmiarach: S, M i L. Kolejne etapy W przypadku wkładek podstawowym celem jest modyfikacja geometrii; wspomina się o dodatkowych systemach utrzymujących element w jednej pozycji. Obecnie trwają prace nad stworzeniem finalnego modelu. Odnosząc się do metody wytwarzania, lider zespołu Jakub Bryła, wyjaśnia: Mamy do wyboru kilka rodzajów technologii druku 3D, rozpoczynając od najbardziej rozpowszechnionych, przez metody druku z żywic światłoutwardzalnych oraz proszków polimerowych. Rozważamy również standardowe techniki, jak odlewanie z użyciem form silikonowych – jednak również i w tym przypadku planujemy wykorzystać metody przyrostowe do wykonania wzorca. Najważniejszym jest, aby finalny produkt spełniał ściśle określone wymagania projektowe – zarówno pod względem geometrii, jak i sztywności. W pierwszych testach planujemy wspomóc się wykonanym modelem nosa dziecka na podstawie plików DICOM z tomografii komputerowej. Zespół dodaje, że choć chodzi, oczywiście, o to, by pomóc małym pacjentom i lekarzom, ważny jest także inny aspekt projektu: zbadanie możliwości, wad i zalet poszczególnych technologii wytwarzania przyrostowego pod kątem produkcji komponentów przeznaczonych do zastosowań medycznych. « powrót do artykułu
  17. Słonie mogłyby występować na ponad 60% obszaru Afryki, a zajmują jedynie 17% zdatnego dla nich terenu. Przyjrzeliśmy się każdemu kilometrowi kwadratowemu kontynentu. Stwierdziliśmy, że na 62% z przeanalizowanych 29,2 miliona kilometrów występuje odpowiedni dla słoni habitat, mówi główny autor badań, Jake Wall z kenijskiego Mara Elephant Project. Słonie występują jednak na niewielkiej części tego obszaru. To jednocześnie zła i dobra wiadomość. Zdaniem badaczy, afrykańskie słonie mogłyby występować na 18 milionów kilometrów kwadratowych, w tym w wielu miejcach, gdzie ich koegzystencja z ludźmi byłaby bezkonfliktowa. Nie od dzisiaj jest jasne, że zasięg występowania słoni – podobnie jak wielu innych gatunków na Czarnym Lądzie – gwałtownie się kurczy. Przyczynami takiego stanu rzeczy są kłusownictwo, utrata habitatów i rozrastająca się populacja ludzka. Wall i jego zespół chcieli lepiej zrozumieć, jak słonie wykorzystują przestrzeń i co powoduje, że zajmują te a nie inne tereny. Naukowcy przeanalizowali dane dotyczące każdego kilometra kwadratowego Afryki, sprawdzając, gdzie występują warunki, na których słonie byłyby w stanie żyć. Wykorzystali też dane z nadajników GPS, które przez 15 lat były zbierane od 229 słoni. Przyjrzeli się szacie roślinnej, pokrywie drzewnej, temperaturom powierzchni, opadom, dostępności wody, nachyleniu terenu, obecności ludzi oraz obecności terenów chronionych na obszarach, przez które przemieszczały się śledzone słonie. Dzięki temu byli w stanie określić, jakie rodzaju habitatu słonie wybierają i jakie są ekstremalne warunki, które są w stanie tolerować. Naukowcy odkryli, że w Republice Środkowoafrykańskiej oraz Demokratycznej Republice Kongo istnieją olbrzymie tereny potencjalnie wiąż nadające się do zamieszkania przez słonie. Jeszcze niedawno żyły tam setki tysięcy tych zwierząt. Obecnie pozostało 5–10 tysięcy. Uczeni określili też główne obszary, na które słonie się nie zapuszczają. Największe tereny, których unikają, to pustynie Sahara, Kalahari, Danakil oraz miasta i wysokie góry. To pokazuje nam, gdzie mogły znajdować się historyczne zasięgi słoni. Jednak pomiędzy końcem okresu rzymskiego a przybyciem europejskich kolonizatorów brak jest informacji nt. statusu afrykańskich słoni, mówi Iain Douglas-Hamilton, założyciel organizacji Save the Elephants. Badania wykazały, że słonie żyjące na terenach chronionych zajmują zwykle mniejsze terytorium. Uczeni przypuszczają, że zwierzęta wiedzą, iż wychodzenie poza teren chroniony jest niebezpieczne. Jednocześnie około 57% obecnego zasięgu słoni znajduje się poza obszarami chronionymi. Dlaczego jednak słonie zajmują znacznie mniejszy teren niż zdatny do zamieszkania? Dzieje się tak ze względu na presję ze strony człowieka. Zarówno z powodu kłusownictwa jak i zajmowania ich terenów przez ludzi, którzy nie mają zamiaru koegzystować ze słoniami. Kluczowym dla przetrwania słoni będzie ochrona ich habitatów, zwalczenie kłusownictwa oraz przekonanie ludzi, że mogą żyć obok tych wielkich zwierząt. Słonie to wielcy roślinożercy. Obszar ich występowania może się zmniejszyć, ale jeśli damy im szansę mogą znowu zająć tereny, na których niegdyś występowały, mówi Wall. Niestety, obecne trendy szansy takiej nie dają. Fragmentacja habitatu jest tak wielka, że jedynie 7% dzikich terenów ma obszar większy niż 100 km2. Bardzo pilnie musimy uwzględnić potrzeby zwierząt, które potrzebują dużych, wolnych od wpływu człowieka habitatów, dodają uczeni. « powrót do artykułu
  18. Po raz pierwszy naukowcy udowodnili, że Pine Island Glacier w Zachodniej Antarktydzie może przekroczyć punkt, poza którym zacznie gwałtownie i nieodwracalnie tracić masę, co będzie miało znaczące konsekwencje dla globalnego poziomu oceanów. Pine Island Glacier to wielki strumień lodowy o powierzchni 175 000 km2 i grubości około 2 kilometrów. Jest to też region najszybszej utraty lodu w Antarktyce. Obecnie Pine Island Glacier wraz z sąsiadującym z nim Thwaites Glacier jest odpowiedzialny za 10% wzrostu poziomu oceanów na całym świecie. Naukowcy już od pewnego czasu ostrzegają, że ten region Antarktyki jest blisko punktu zwrotnego, poza którym dojdzie do nieodwracalnego rozpadu lodu, co w konsekwencji może doprowadzić do rozpadu całej Zachodniej Antarktydy, która zawiera wystarczająco dużo lodu, by doprowadzić do wzrostu poziomu oceanów o ponad trzy metry. Jednak o ile samo stwierdzenie, że istnieje punkt, poza którym lodowiec może się rozpaść to jedno, a wyznaczenie tego punktu dla Pine Island Glacier to zupełnie coś innego. Naukowcy z Northumbria Univeristy wykorzystali najnowsze modele płynięcia lodu i na ich podstawie stworzyli metodę pozwalającą na wyznaczenie wspomnianego punktu zwrotnego dla każdego z lądolodów. Ich model wykazał, że w przypadku Pine Island Glacier istnieją co najmniej trzy punkty krytyczne. Ostatecznym z nich, wyznaczającym koniec istnienia tego strumienia lodowego jest wzrost temperatury oceanów o 1,2 stopnia Celsjusza. Doprowadzi to do nieodwracalnego wycofywania się. Naukowcy mówią,że długoterminowe ocieplenie oraz trendy obserwowane w Circumpolar Deep Water w połączeniu ze zmieniającymi się wzorcami wiatrów na Morzu Amundsena mogą wystawić Pine Island Glacier na długotrwałe działanie wysokich temperatur, co coraz bardziej zwiększa ryzyko wystąpienia warunków prowadzących do jego nieodwracalnego wycofywania się. Istnieje wiele modeli próbujących przewidywać, jak zmiany klimatu wpłyną na Zachodnią Antarktykę, jednak modele te nie pokazują, czy może zostać przekroczony punkt krytyczny, mówi główny autor badań dr. Sebastian Rosier. Już wcześniej mówiło się, że Pine Island Glacier może wejść w fazę nieodwracalnego wycofywania się. Tutaj po raz pierwszy udało się to dokładnie wykazać i wyliczyć. To bardzo ważny moment dla badań nad dynamiką zmian w tym obszarze świata, dodaje profesor Hilmar Gudmundsson. Uzyskane przez nas wyniki osobiście mnie martwią. Jeśli bowiem dojdzie do takiego wydarzenia, wzrost poziomu światowego oceanu będzie liczony w metrach, a procesu tego nie da się powstrzymać. « powrót do artykułu
  19. Sztuczna inteligencja pomogła w rozwiązaniu jednej z zagadek zwojów znad Morza Martwego. Przeprowadzona przez algorytm analiza potwierdziła, że jeden z najstarszych zwojów z Qumran – Wielki Zwój Izajasza, pochodzący z ok. 125 roku p.n.e. – został spisany przez dwie osoby, a nie przez jedną. Wielki Zwój Izajasza to kopia Księgi Izajasza. Zanim odkryto zwoje z Qumran historię tekstów biblijnych mogliśmy studiować praktycznie wyłącznie ze średniowiecznych manuskryptów z około 1000 roku. Zwoje znad Morza Martwego są jak kapsuła czasu. Pozwalają nam podróżować do czasów, w których Biblia dopiero powstawała. Dają nam więc wyjątkowy wgląd w kulturę i środowisko, które ją wytworzyło, mówi Mladen Popovic z Uniwersytetu w Groningen. Wielki Zwój Izajasza jest naprawdę wielki. Ma 734 centymetry długości. To największy, jeden z najlepiej zachowanych i jedyny niemal kompletny zwój z Qumran. Dotychczas naukowcy nie byli pewni, czy spisała go jedna czy dwie osoby, gdyż charakter pisma na całym zwoju jest niezwykle podobny. Popovic i jego zespół zaprzęgli sztuczną inteligencję do analizy zdjęć zwoju. Zadaniem algorytmu było przyjrzenie się literom, przeanalizowanie trudnych do wychwycenia dla człowieka zmian w kroju i stylu liter oraz stwierdzenie, czy Wielki Zwój wyszedł spod jednej ręki, czy też pracowało nad nim więcej osób o podobnym charakterze pisma. Sztuczną inteligencję zaprzęgnęliśmy do pracy dlatego, że mamy tutaj podobny charakter pisma. Chcieliśmy dowiedzieć się, czy pisały dwie osoby czy jedna, która w pewnym momencie zmieniła narzędzie do pisania, wyjaśnia Charlotte Hempel z University of Birmingham. Teraz możemy zadać sobie jeszcze jedno fascynujące pytanie. Czy tak duże podobieństwo w charakterze pisma dwóch osób wynikało z faktu, iż mamy tutaj do czynienia z  wysokiej klasy profesjonalistą zdolnym do naśladowania charakteru pisma innej osoby i czy obaj skrybowie pochodzili z tego samego kręgu, w którym uczyli się swojej profesji, dodaje Hempel. « powrót do artykułu
  20. Opublikowane dziś wyniki zespołu badaczy z udziałem polskich naukowców pokazują, że prawdopodobieństwo syntezy nowego jądra nie maleje tak gwałtownie ze wzrostem energii wzbudzenia jak dotąd zakładano. Wykonane obliczenia przekonują, że scenariusze, w których nowe jądro miałoby powstać po emisji 6, 7, a nawet większej liczny neutronów, powinny być brane pod uwagę przez eksperymentatorów. Najcięższe jądra powstają w wyniku zderzenia i połączenia się jąder lżejszych pierwiastków. W laboratoriach zazwyczaj jedno z tych jąder jest wyraźnie lżejsze i stanowi pocisk, uderzający w cięższe jądro pełniące rolę tarczy. Pociski są rozpędzane w specjalnych akceleratorach. Zarówno jądra tarczy jak i pociski posiadają swój ładunek elektryczny. Aby pokonać barierę odpychania elektrostatycznego pomiędzy jądrami tarczy i pocisku, jądra pocisków muszą być rozpędzone do odpowiednio dużej energii. Po zderzeniu powstaje złożony układ wzbudzony, w którym konkurują ze sobą odpychające oddziaływania elektromagnetyczne i oddziaływania silne, zdolne przeciwstawić się tym pierwszym. Wzbudzenie układu to – w dużym uproszczeniu – nadmiar energii. Ta nadmiarowa energia może układ rozsadzić, prowadząc np. do jego rozszczepienia na dwa lub więcej fragmentów, lub też układ może się jej pozbyć emitując na przykład kilka neutronów lub cząstek alfa. Jest szansa, że po pozbyciu się nadmiaru energii, pozostanie układ tworzący jądro stabilne, a przynajmniej żyjące na tyle długo, by można było je zaobserwować i ustalić pewne jego własności fizyczne. Najcięższe wytwarzane w laboratoriach jądra żyją jedynie przez niewyobrażalnie małe ułamki sekund, jednak jest to wystarczająco długo, by fizycy je zbadali. Do tej pory, gdy planowano sposoby dokonania syntezy wybranych jąder, uważano, że należy dążyć do tego, by po zderzeniu tej nadmiarowej energii było jak najmniej i by układ mógł się jej pozbyć emitując jedynie pojedyncze neutrony lub cząstki alfa. Zakładano, że prawdopodobieństwo wytworzenia nowego, względnie stabilnego układu, szybko maleje ze wzrostem wielkości energii, której należy się pozbyć i z liczbą cząstek, które układ musi wyemitować w tym celu. Opublikowane dziś wyniki zespołu fizyków teoretyków z Korei Południowej, Rosji i Polski pokazują, że prawdopodobieństwo syntezy nowego jądra wcale nie maleje tak gwałtownie ze wzrostem energii wzbudzenia jak wszyscy dotąd zakładali. Wykonane obliczenia pokazują, że scenariusze, w których oczekiwane jądro miałoby powstać po emisji 6, 7, a nawet większej liczny neutronów, są nadal warte rozważenia i powinny być brane pod uwagę przez eksperymentatorów np. w laboratorium w Zjednoczonym Instytucie Badań Jądrowych w Dubnej w Rosji, jednej z zaledwie kilku na świecie „fabryk” pierwiastków superciężkich. Decydujący wpływ na nasze wyniki ma współgranie dwu efektów – tłumaczy Michał Kowal, profesor Narodowego Centrum Badań Jądrowych, kierownik Zakładu Fizyki Teoretycznej, współautor pracy. Z jednej strony mamy odpowiednio duże prawdopodobieństwo samej fuzji do układu silnie wzbudzonego. Z drugiej strony korzystnie współzawodniczą ze sobą próg na emisję neutronów oraz bariera rozszczepieniowa, która chroni nowo wytarzane jądro złożone przed rozpadem. Efekt ten nie był dotąd rozważany w literaturze, jako że powszechnie sądzono, że nie ma szans na wytworzenie nowych jąder dla dużych energii wzbudzenia. My pokazaliśmy, że wcale tak nie musi być, i że możliwe są całkiem prawdopodobne kanały dla dużych energii wzbudzenia, gdzie emitowane jest nawet 6 czy 7, a nawet więcej neutronów. To otwiera nowe możliwości syntezy jąder neutronowo-niedomiarowych i być może w przyszłości pozwoli na powiązanie scenariusza gorącej syntezy z jądrami wytworzonymi w syntezie zimnej. Rachunki, które wykonaliśmy, były możliwe dzięki naszym nowym oszacowaniach progów energetycznych na emisję neutronu i na rozszczepienie – wyjaśnia drugi z polskich współautorów, dr Piotr Jachimowicz z Uniwersytetu Zielonogórskiego. Wyniki te zostały niedawno opublikowane w zbiorczych tablicach służących całej społeczności fizyków jądrowych. W pracy znaleziono też fascynujący efekt związany z możliwością emisji jednej lub dwóch cząstek alfa na samym początku procesu deekscytacji. Ten nowy kanał rozpadu i nowy mechanizm produkcji może otwierać nowa drogę dla przyszłych nieznanych dziś syntez. Badacze podkreślają, że wciąż mówimy o prawdopodobieństwach ekstremalnie małych, jednych z najniższych jakie znamy w przyrodzie, ale jednak osiągalnych dzięki rozbudowanym właśnie nowym urządzeniom takim jak super-heavy element factory w ZIBJ Dubna. Kontekst możliwości eksperymentalnych związanych z wynikami prowadzonych badań stanowił istotną motywację zespołu. Praca zatytułowana Rate of decline of the production cross section of superheavy nuclei with Z=114-117 at high excitation energies autorstwa J. Hong, G. G. Adamian, N. V. Antonenko, P. Jachimowicz, and M. Kowal ukazała się 21 kwietnia elektronicznie w czasopiśmie Physical Review C, sekcja Letters. « powrót do artykułu
  21. Robiąc zakupy online z pewnością zdarzyło Ci się zauważyć podczas finalizowania transakcji okienko na kod rabatowy. Skąd go wziąć i czemu ma służyć? Zakupy przez internet to ogromnie wygodna forma nabywania produktów. W dobie pandemii miliony ludzi doceniło ją szczególnie mocno. Tylko dzięki dostępowi do sieci możesz bez żadnych ograniczeń kupować ubrania, buty, sprzęty, niezależnie od obostrzeń panujących w kraju i na świecie. Poza tym, że z łatwością kupisz to, czego potrzebujesz, wybór produktów jest znacznie większy, a do tego w kilka chwil wyszukasz najkorzystniejszą ofertę. Tanie zakupy nie wymagają już jeżdżenia przez cały dzień od sklepu do sklepu. Znalezienie konkretnego produktu w najniższej cenie zajmuje krótką chwilę. Dodatkowe możliwości daje korzystanie z kuponów rabatowych, które są na wyciągnięcie ręki. Kody rabatowe - komu się to opłaca? Zastanawiasz się, gdzie jest haczyk? Komu się kalkuluje, dawać zniżki ot tak? Firmy, które stosują w swoich sklepach kody rabatowe, wcale nie są z ich powodu stratne. Wręcz przeciwnie, dzięki kodom wszyscy zyskują. Sprzedawca może liczyć na większe zainteresowanie ze strony klientów. Będzie ono skutkować utrzymaniem przy sobie tych stałych, ściągnięciem byłych, a także zdobyciem zupełnie nowych. Marka staje się rozpoznawalna, a jej pozycja na rynku coraz wyższa. Konsumenci sami robią zakupy, a potem chętnie dzielą się sprytnym sposobem na tanie zakupy z przyjaciółmi oraz rodziną. Dodatkowo jest to forma marketingu, której rezultaty bardzo łatwo można zmierzyć. Jak działają kody rabatowe? Kupony rabatowe najczęściej powodują obniżenie ceny o kilkanaście, a nawet o kilkadziesiąt procent lub gwarantują darmową dostawę. Jedne skierowane są do stałych klientów lub tych, których wartość zakupów przekroczyła jakąś kwotę, inne obejmują wyłącznie dany segment produktów. Są również i takie, z których mogą korzystać wszyscy na cały asortyment. Stosują je sklepy ze sprzętem RTV/AGD, obuwnicze, meblowe, odzieżowe, apteki, drogerie, księgarnie i wiele innych. Taniej możesz również kupić wycieczkę, wizytę u fryzjera czy kosmetyczki. Gdzie znaleźć kupony rabatowe? Niektóre firmy chcą wyróżnić swoich stałych klientów i wysyłają swoje kody rabatowe w formie wiadomości SMS, drogą mailową, w aplikacji, zamieszczają na swojej oficjalnej stronie w mediach społecznościowych, podają w newsletterach, bądź też w streamach, transmisjach live lub filmikach na Youtube. Zdarza się również, że sprzedawca załącza taki kupon ze zniżką jako gratis do zamówienia, by zachęcić klientów do kolejnych zakupów. Wiele popularnych marek umieszcza kody na specjalnych serwisach, które specjalizują się w udostępnianiu rabatów, informowaniu o promocjach. Jednym z takich serwisów jest Once Coupon A Time. Poza zawsze najświeższymi kuponami znajdziesz tu aktualne gazetki promocyjne i najgorętsze przeceny, wyprzedaże zarówno w popularnych sieciówkach, jak i w zupełnie wyjątkowych sklepach. Na stronie Once Coupon A Time możesz z łatwością wyszukać rabatów na interesujące Cię produkty, kategorie produktów lub do konkretnych sklepów. Kupuj markowe ciuchy, najlepsze kosmetyki i sprzęt w przystępnych cenach, by móc pozwolić sobie na większe zakupy lub zaoszczędzone pieniądze wydać na inne przyjemności. « powrót do artykułu
  22. Przed rokiem firma Cerebras Systems zaprezentowała największy w historii procesor o gigantycznej mocy obliczeniowej, który pokonał najpotężniejszy superkomputer, symulując procesy fizyczne szybciej, niż odbywają się one w rzeczywistości. Teraz firma ogłosiła, że stworzyła drugą wersję swojego procesora i udostępni go w 3. kwartale bieżącego roku. Wafer Scale Engine 2 (WSE 2) ma ponaddwukrotnie więcej tranzystorów, rdzeni i pamięci niż WSE 1. Trenowanie systemów sztucznej inteligencji trwa wiele tygodni. To zdecydowanie zbyt długo, gdyż w takiej sytuacji można wytrenować tylko kilka sieci rocznie. Jeśli zaś moglibyśmy wytrenować sieć neuronową w ciągu 2-3 godzin, to rocznie możemy przetestować tysiące rozwiązań, mówi Andrew Feldman, dyrektor i współzałożyciel Cerebras. Mogą w tym pomóc właśnie olbrzymie procesory WSE. Ich twórcy zauważyli, że rozwiązaniem problemu wąskiego gardła, którym jest konieczność ciągłego przesyłania danych pomiędzy procesorem a układami pamięci, będzie zbudowanie wielkiego procesora, który będzie w stanie przechować wszystkie potrzebne dane w swoich rdzeniach. Oba procesory WSE mają powierzchnię 46 255 mm2. Dla porównania procesor Nvidia A100 ma powierzchnię 826 mm2. WSE 2 korzysta z 2,6 biliona tranzystorów (WSE 1 z 1,2 biliona, a A100 z 54,2 miliardów). Najnowszy procesor Cerebras składa się z 850 000 rdzeni (WSE 1 ma ich 400 000, A100 – 7344). W WSE 2 zastosowano 40 gigabajtów pamięci. TO aż 1000-krotnie więcej niż w A100 i ponaddwukrotnie więcej niż w WSE 1. Ponadto rdzenie WSE 2 wymieniają między sobą dane z prędkością 200 PB/s, podczas gdy A100 przekazuje dane z prędkością 155 GB/s, a WSE 1 z prędkością 9 PB/s. Najnowszy procesor Cerebras został wykonany w technologii 7nm, czyli tej samej co A100. WSE 1 korzystał z 16nm. Cerebras zapewnia, że udoskonalił również samą mikroarchitekturę WSE 2 tak, by jeszcze lepiej spełniał on zadania stawiane przed systemami sztucznej inteligencji. Firma może pochwalić się rosnącą liczbą klientów, którzy prowadzą na WSE 1 i mają zamiar prowadzić na WSE 2 niezwykle złożone obliczenia. Wśród klientów tych jest Argonne National Lab, które wykorzystuje WSE do prac nad lekami na nowotwory, badania COVID-19, badania fal grawitacyjnych czy badań nad nowymi materiałami. Z kolei Edinburgh Parallel Computing Centre używa WSE do przetwarzania języka naturalnego i badań genetycznych. Koncern farmaceutyczny GlaxoSmithKline poszukuje nowych leków za pomocą WSE 1, a Lawrence Livermore National Lab symuluje fuzję jądrową, prowadzi badania nad traumatycznymi uszkodzeniami mózgu. Wśród klientów Cerebras jest też wiele firm z przemysłu ciężkiego, wojskowego czy wywiadu. « powrót do artykułu
  23. Międzynarodowa Stacja Kosmiczna liczy sobie już ponad 20 lat, a jej przyszłość jest niepewna. W 2014 roku Rosja, w odpowiedzi na amerykańskie sankcje po zajęciu Krymu, oświadczyła, że odrzuci prośbę USA o przedłużenie działania stacji poza rok 2020. W 2015 roku Roskosmos oświadczył, że będzie brał udział w projekcie stacji do roku 2024. Z kolei w roku 2018 w USA przyjęto ustawę, zgodnie z którą działanie Stacji ma zostać przedłużone do roku 2030. Rosjanie powtórzyli właśnie, że wkrótce mają zamiar wycofać się z ISS. Państwowa telewizja Russia 1 donosi, że wicepremier Jurij Borisow stwierdził podczas specjalnego spotkania pod przewodnictwem Władimira Putina: musimy uczciwie poinformować naszych partnerów o zamiarze wycofania się z Międzynarodowej Stacji Kosmicznej w roku 2025. Później współpracownicy Borisowa uściślili, że najpierw Rosja chce przeprowadzić inspekcję techniczną starzejącej się stacji i na jej podstawie podejmie decyzję, o której zostaną poinformowani partnerzy. Urzędnicy dodali, że stan ISS pozostawia wiele do życzenia. Wiadomo, że Rosjanie od dłuższego czasu noszą się z zamiarem zbudowania własnej stacji kosmicznej. Dimitrij Rogozin, szef Roskosmosu, niejako dementując słowa wicepremiera, powiedział, że Rosja nie wycofa się z MSK dopóki nie powstanie nowa stacja. Przerwy są szkodliwe dla załogowej eksploracji kosmosu, stwierdził. Później dodał jeszcze, że nowa stacja może bazować na modułach planowanych początkowo dla ISS. Jak widać Rosjanie często zmieniają zdanie i przekazują sprzeczne komunikaty odnośnie przyszłości ISS. Wiadomo natomiast, że plany budowy własnej rosyjskiej stacji, która byłaby następcą stacji Salut i Mir, są bardzo odległe. Nie wszyscy też je popierają. Andriej Jonin, członek Rosyjskiej Akademii Kosmonautyki, mówi, że „największym osiągnięciem ISS nie jest technologia, ale współpraca pomiędzy wieloma krajami". Jego zdaniem budowa stacji narodowej to krok w tył. Zanim jednak Roskosmos wybuduje własną rosyjską stację kosmiczną, musi najpierw dołączyć do ISS moduł Nauka. Zaprojektowano go ponad 20 lat temu, a przez ostatnich 8 lat termin jego ukończenia ciągle przesuwano z powodu problemów technicznych. Greg Autry, ekspert ds. polityki kosmicznej z Arizona State University mówi, że utrata tak ważnego partnera jak Rosja byłaby poważnym ciosem dla ISS, jednak prawdopodobnie Stany Zjednoczone, korzystając z NASA i SpaceX, byłyby w stanie zapewnić funkcjonowanie stacji. « powrót do artykułu
  24. Podczas prac archeologicznych prowadzonych na przyszłym placu budowy przy ulicy Piramowicza w Lubaniu (woj. dolnośląskie) znaleziono płaski okrągły przedmiot. Okazało się, że to kinowa taśma filmowa w nieuszkodzonej puszce z czasów II wojny światowej. To, co trzymam w rękach, to nie tarcza. To kinowa taśma filmowa w nieuszkodzonej puszce z czasów II wojny światowej. Puszka została znaleziona 17 kwietnia przy ul. Piramowicza w Lubaniu. Ciekawe, w jakim stanie jest taśma i jakie obrazy zwiera? - napisał pozujący ze znaleziskiem Łukasz Tekiela, dyrektor Muzeum Regionalnego w Lubaniu. Jak poinformowała nas przedstawicielka Muzeum, nieotwierana puszka została 20 kwietnia wysłana do specjalistów do Warszawy. Teraz pozostaje czekać na rezultaty ich działań. Jakie one nie będą, informacja pojawi się na naszej stronie na FB. Jeżeli po otwarciu taśma będzie w takim stanie, że coś się da z nią zrobić, zakonserwujemy ją i spróbujemy zrobić z tego taką wersję, żeby to dało się odpalić. I obojętnie, co tam będzie, czy to komedia przedwojenna, czy kronika wojenna, to zrobimy premierę w kinie - powiedział Łukasz Tekiela w wywiadzie udzielonym portalowi eLuban. Podczas prac prowadzonych na ulicy Piramowicza znaleziono także inne artefakty: brakteat guziczkowy z XIII w., fragment renesansowego kafla z wizerunkiem św. Andrzeja, a także renesansowy kafel ze sceną pasyjną. Warto dodać, że nieopodal miejsca, gdzie odkryto puszkę, kilkadziesiąt lat temu działały 2 kina. Kino Capitol powstało w latach 30. XX w. (w tamtych czasach było jednym z najnowocześniejszych kin na Dolnym Śląsku). Do 1945 r. funkcjonowało razem z drugim kinem, które znajdowało się przy dzisiejszej ulicy Spółdzielczej (jego budynek już nie istnieje). Capitol uruchomiono tuż po wojnie, ponieważ jako jeden z nielicznych budynków nie uległ on zniszczeniu w czasie tzw. bitwy o Lubań. W latach 50. kino otrzymało nazwę Wawel. Działa pod nią do dziś. « powrót do artykułu
  25. W miodzie sprzedawanym w USA odnotowano ślady opadu radioaktywnego w testów broni jądrowej prowadzonych w latach 50. i 60. Poziom radioaktywności miodu nie jest niebezpieczny, a w latach 70. i 80. prawdopodobnie był znacznie wyższy. To niewiarygodne. Opad radioaktywny wciąż znajduje się w środowisku i to w głównych składnikach odżywczych, mówi Daniel Richter z Duke University, który nie był zaangażowany w opisywane badania. Po II wojnie światowej USA, ZSRR i inne kraje przeprowadziły setki powietrznych testów atomowych. W ich wyniku do górnych warstw atmosfery trafił radioaktywny cez, który z czasem opadał na całą Ziemię. Opad ten, ze względu na różny rozkład wiatrów i opadów, nie był równomierny. Na przykład w USA najwięcej radioaktywnego cezu spadło na wschodnim wybrzeżu. Radioaktywny cez rozpuszcza się w wodzie, a rośliny mogą pomylić go z potasem, niezwykle ważnym składnikiem odżywczym, do którego ma podobne właściwości chemiczne. James Kaste, geolog z College of William & Mary w Williamsburgu w Virginii, chcąc sprawdzić, czy rośliny pobierają z gleby ten radioaktywny cez, poprosił swoich studentów, by – gdy wyjadą do domów na ferie wiosenne – przywieźli lokalnie produkowaną żywność. Jeden ze studentów przywiózł miód z Raleigh w Północnej Karolinie. Kaste ze zdumieniem stwierdził, że zawiera on 100-krotnie więcej cezu niż inna zbadana przez niego żywność. Postanowił więc sprawdzić czy pszczoły żyjące na wschodzie USA podczas zbierania nektaru nie przynoszą wraz z nim cezu. Uczony wraz ze swoim zespołem zebrali 122 próbki miodu produkowanego w różnych miejscach na wschodzie Stanów Zjednoczonych. Okazało się, że w 68 próbkach poziom radioaktywności wynosi ponad 0,03 bekereli na kilogram, co odpowiada 870 000 atomów radiocezu w łyżeczce miodu. Najbardziej radioaktywny był miód z Florydy, gdzie zmierzono 19,1 bekereli na kilogram. Warto tutaj zauważyć, że są to wartości wielokrotnie niższe od naturalnej aktywności promieniotwórczej, która np. dla bananów wynosi 125 Bq/kg, dla mleka jest to 50 Bq/l a dla 5-letniego dziecka – 600 Bq. Jest to także znacznie mniej niż dopuszczalny poziom zanieczyszczeń żywności radioaktywnym cezem. Unia Europejska dopuszcza zanieczyszczenie radiocezem żywności dla niemowląt na poziomie 400 Bq/kg, a innej żywności na poziomie 1250 Bq/kg. Podobne normy obowiązują w USA. Zupełnie się tym nie martwię, mówi Kaste. Jem obecnie więcej miodu niż przed rozpoczęciem badań. Mam dzieci i im też podaję miód. Uczeni postanowili też sprawdzić, jaki był poziom radiocezu z miodzie z lat 70. i 80. W tym celu przeanalizowali dane FDA (Agencji ds. Żywności i Leków), która monitorowała poziom radioaktywności mleka oraz roślin. Na tej podstawie stwierdzili, że w latach 70. poziom radioaktywnego cezu w amerykańskim miodzie był 10-krotnie wyższy niż obecnie. Wyniki badań każą się zastanowić, jak zanieczyszczenie środowiska przez wygenerowany przez człowieka radiocez wpłynęło na pszczoły w ciągu ostatnich 50 lat, zauważa Justin Richardson, biogeochemik z University of Massachusetts. Wiemy, że pszczoły giną przez pestycydy, jednak również inne toksyny uwalniane przez ludzi do środowiska mogą wpływać na ich przetrwanie. Specjaliści uważają jednak, że raczej nie ma tutaj powodu do zmartwień. Po katastrofie w Czernobylu wykazano, że negatywnie wpłynęła ona na zdolności rozrodcze pobliskich kolonii pszczół. Jednak były one narażone na 1000-krotnie wyższe poziomy promieniowania niż obecnie żyjące pszczoły. « powrót do artykułu
×
×
  • Dodaj nową pozycję...