Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36957
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. Kwasy nukleinowe, szczególnie RNA, mogą być niezwykle podatne na degradację, szczególnie w przewodzie pokarmowym. Rozwiązanie tego problemu otwiera nowe możliwości terapeutyczne, w tym możliwość opracowania doustnych szczepionek, mówi Giovanni Traverso, profesor inżynierii mechanicznej na MIT i gastroenterolog w Brigham and Women's Hospital. Amerykańscy naukowcy wykazali właśnie, że opracowana przez nich kapsułka pozwala na dostarczenie do żołądka świni do 150 mikrogramów RNA. To więcej niż mRNA używane w szczepionkach przeciwko COVID-19. Zespół Traverso od lat współpracuje z zespołem Roberta Langera, profesora w David H. Koch Institute for Integrative Cancer Research. Celem ich badań jest stworzenie nowych technik doustnego dostarczania leków. W 2019 roku zaprezentowali kapsułkę z igłą, która wbija się w wyściółkę żołądka i dostarcza tam insulinę. Kapsułce nadano kształt karapaksu żółwia lamparciego. Karapaks zwierzęcia ma taki kształt, że jeśli żółw upadnie na grzbiet, bez problemu odwraca się na nogi. Naukowcy nadali kapsułce taki kształt, dzięki czemu zawsze ustawi się ona tak, by igła mogła wbić się w żołądek. W ubiegłym roku Traverso i Langer wykazali, że za pomocą kapsułki możliwe jest dostarczanie dużych molekuł, jak przeciwciała monoklonalne. Po udanych testach postanowili sprawdzić, czy ich kapsułka przyda się również do pracy z innymi dużymi molekułami, kwasami nukleinowymi. Kwasy nukleinowe łatwo ulegają degradacji po dostaniu się do organizmu. Dlatego też muszą być dostarczane w osłonkach. Uczeni z MIT opracowali więc specjalne polimerowe nanocząsteczki wykonane z poli(β-aminoestrów). Już wcześniej wykazali bowiem, że dzięki nadaniu im odpowiedniego kształtu można dobrze chronić kwasy nukleinowe. Nowe cząstki przetestowano najpierw na myszach. Zwierzętom wstrzyknięto je do żołądka, nie używając przy tym kapsułki. Cząstki miały chronić RNA z kodem pewnego białka reporterowego. Gdyby dostarczenie do żołądka i pobranie RNA przez organizm było skuteczne, białko to powinno pojawić się w tkankach. I rzeczywiście. Wykryto je zarówno w żołądkach, jak i wątrobie, co wskazuje, że RNA zostało dostarczone do innych organów, a następnie trafiło do filtrującej krew wątroby. Następnie naukowcy poddali kompleks RNA-nanocząsteczki liofilizacji i umieścili go w swoich kapsułkach. W jednej byli w stanie upakować około 50 mikrogramów mRNA. Trzy takie kapsułki podano świniom. Badania wykazały, że po podaniu kapsułek białko reporterowe było wytwarzane przez komórki żołądka, ale nie znaleziono go w innych częściach ciała. W następnym etapie badań naukowcy spróbują zwiększyć ilość RNA dostarczonego do organizmu zmieniając budowę nanocząsteczek lub podając więcej RNA. Zauważają jednak, że w niektórych zastosowaniach wystarczy dostarczyć RNA do samego żołądka. W układzie pokarmowym znajduje się wiele komórek układu odpornościowego, a stymulowanie tych komórek to znany od dawna sposób na wywołanie reakcji immunologicznej, stwierdzają naukowcy. Traverso i Langer chcą sprawdzić, czy podanie szczepionki mRNA drogą doustną wywoła ogólnoustrojową reakcję immunologiczną, w tym aktywację limfocytów B i T. Nowa metoda podawania mogłaby też być wykorzystywana przy leczeniu chorób układu pokarmowego, które trudno jest zwalczać za pomocą tradycyjnych zastrzyków podskórnych. Ze szczegółami badań można zapoznać się na łamach pisma Matter. « powrót do artykułu
  2. Od kilku lat Księżyc cieszy się dużym zainteresowaniem agencji kosmicznych i firm prywatnych. Planowane są misje załogowe i bezzałogowe na Srebrny Glob. Jednym z najbardziej ambitnych projektów jest zbudowanie na orbicie Księżyca stacji Lunar Gateway, w której przechowywane będą zapasy, urządzenia i roboty, będzie służyła jako baza dla astronautów i zapewniała łączność z Ziemią. Do roku 2030 różne firmy i organizacje planują ponad 90 misji związanych z Księżycem. I nawet jeśli jakaś część z nich nie dojdzie do skutku, to inne – być może większość – się odbędą. A to dopiero początek. Zainteresowanie Księżycem będzie rosło. Być może w przyszłości powstanie na nim stała baza. Wszystkie te misje oraz potencjalna baza będą potrzebowały łączności z Ziemią. A jej zapewnienie to niełatwe zadanie. Już w czasie misji Apollo były problemy z komunikacją pomiędzy Srebrnym Globem a planetą. A gdy misji będzie więcej i będą się one odbywały w różnych miejscach Księżyca, problemy będą jeszcze większe. Niemożliwe jest bowiem zapewnienie bezpośredniej łączności zarówno ze stroną Księżyca niewidoczną z Ziemi, jak i z dużych obszarów podbiegunowych. Nawet na widocznej z Ziemi stronie łączność mogą zakłócać nierówności terenu. Trzeba też pamiętać, że oba ciała niebieskie dzieli kilkaset tysięcy kilometrów, zatem do zapewnienia łączności trzeba silnych nadajników i dużych anten oraz wzmacniaczy. Pracujące na Księżycu niewielkie roboty z pewnością nie będą miały ani odpowiednich urządzeń, ani wystarczająco dużo energii, by komunikować się z Ziemią. Dlatego też włoska firma Argotec oraz należące do NASA Jest Propulsion Laboratory (JPL) pracują nad Andromedą. Ma to być konstelacja 24 satelitów krążący po 6 orbitach wokół Srebrnego Globu. Satelity służyłyby do przekazywania sygnałów radiowych pomiędzy Ziemią a Księżycem, zapewniając nieprzerwaną łączność na biegunach i niemal nieprzerwaną wszędzie indziej. Włoska firma opracowuje koncepcję satelity, a JPL ma dostarczyć podsystemy, takie jak nadajniki czy anteny. Zadanie tylko z pozoru jest proste. Satelity powinny bowiem znaleźć się na stabilnych orbitach, czyli takich, które nie będą wymagało od nich manewrowania. Po drugie, orbity należy dobrać tak, by zapewnić jak najlepszą łączność obszarom, na którym prawdopodobnie będzie prowadzona najbardziej intensywna działalność. Po trzecie zaś, zapewniając łączność tym obszarom, nie należy zapomnieć o pozostałej części powierzchni Księżyca. Zaproponowana obecnie przez Argotec koncepcja zakłada, że satelity będą znajdowały się na stabilnych orbitach, na których będą mogły pracować przez co najmniej 5 lat. Każdy z nich będzie krążył po eliptycznej orbicie o czasie obiegu 12 godzin. Orbity będą przebiegały w odległości 720 km od powierzchni Księżyca w punkcie najbliższym (perycentrum) i 8090 km w punkcie najdalszym (apocentrum). Jako, że satelita podróżuje najwolniej gdy jest w apocentrum, orbity zostaną ustawione tak, by ich apocentrum przebiegało nad najbardziej interesującym punktami Księżyca, co zapewni najdłuższy okres nieprzerwanej łączności. Dzięki dobrze dobranym orbitom nad każdym z biegunów Księżyca zawsze będzie znajdował się jakiś satelita, a przez 94% czasu będą to trzy satelity. Z kolei nad równikiem co najmniej jeden satelita będzie przez 89% czasu, a trzy satelity przez 79%. Jako, że nawet w apocetrum satelita będzie znajdował się w odległości mniejszej niż 10 000 km od powierzchni, zapewni łączność również niewielkim urządzeniom, nie posiadającym dużych anten i nadajników. Co więcej, dzięki satelitom możliwa będzie komunikacja w czasie rzeczywistym pomiędzy ludźmi pracującymi w dwóch oddalonych lokalizacjach. Jakby jeszcze tego było mało, satelity będą działały jak księżycowy GPS, zapewniając dane lokalizacyjne ludziom i urządzeniom na Srebrnym Globie. Andromeda musi być bardzo wydajna. Efektywna komunikacja głosowa czy przesyłanie materiałów wideo w wysokiej rozdzielczości będą wymagały prędkości transmisji rzędu megabitów na sekundę. Tym bardziej biorąc pod uwagę liczbę planowanych misji. Jednak to nie wszystko. NASA chce umieścić na niewidocznej z Ziemi stronie Księżyca radioteleskop. Agencja pracuje obecnie nad dwiema koncepcjami. Pierwsza z nich – LCRT – zakłada zbudowanie w księżycowym kraterze największego w Układzie Słonecznym radioteleskopu o średnicy 1 km. Zbudowany przez roboty teleskop mógłby prowadzić obserwacje niedostępne z Ziemi, gdyż byłby wolny zarówno od zakłóceń powodowanych przez człowieka, zakłóceń jonosfery czy satelitów. Druga zaś rozważana koncepcja – FARSIDE – zakłada wybudowanie 128 anten. Byłyby one ustawione w okręgu o średnicy 10 km i połączone kablami ze stacją centralną. Informacje z takich teleskopów również byłyby przekazywane przed Andromedę. A na Ziemi wszystkie te dane trzeba by było odebrać. Przykładem systemu odbiorczego może być należący do NASA DSN (Deep Space Network). To zespół anten znajdujących się w USA, Australii i Hiszpanii, które służą komunikacji z misjami w dalszych partiach przestrzeni kosmicznej. DNS już teraz obsługuje wiele misji, a kolejne są planowane. Dlatego też Andromeda raczej nie będzie mogła skorzystać z DSN. Potrzebny będzie osobny system odbiorczy na Ziemi. « powrót do artykułu
  3. Podczas robót ziemnych w północno-wschodniej części placu Wojska Polskiego w Bielsku-Białej odkryto fragmenty murów. Prawdopodobnie są to podmurówki XVIII-wiecznego ratusza w Białej. Pierwsza siedziba władz Białej, która prawa miejskie otrzymała w 1723 r., powstała ok. 1750 r. Jak napisano na stronie Urzędu Miejskiego w Bielsku-Białej, według przekazów historycznych, w rejonie znaleziska znajdowały się - ratusz, waga miejska i karczma. Na temat znaleziska mają się wypowiedzieć archeolodzy, którzy sprawują nadzór nad modernizacją tego terenu. Po przebudowie plac Wojska Polskiego ma być bardziej przyjazny zarówno mieszkańcom, jak i turystom. Zaplanowano trakt spacerowy, ławeczki, fontannę czy elektroniczny fortepian. Wszystkiego dopełni płożąca zieleń wkomponowana w elementy małej architektury oraz dwa rzędy drzew zasadzonych po wschodniej i zachodniej stronie placu. « powrót do artykułu
  4. Obsługa naziemna Teleskopu Webba rozpoczęła włączanie instrumentów naukowych teleskopu. Po schłodzeniu do temperatury pracy można będzie rozpocząć testy ich działania. Jako cel testowych obserwacji wybrano gwiazdę HD84406 położoną w odległości 241 lat świetlnych od Ziemi, w gwiazdozbiorze Wielkiej Niedźwiedzicy. Nie będą to jednak obserwacje naukowe. Posłużą one sprawdzeniu, czy teleskop jest w stanie skupić się na wybranym obiekcie oraz ustawieniu 18 segmentów zwierciadła głównego tak, by działały jak jedno lustro. Obserwacje HD84406 będzie prowadził instrument NIRCam. Osiągnął on już wymaganą temperaturę -153 stopni Celsjusza. Zanim wszystkie segmenty zwierciadła nie zostaną prawidłowo ustawione – a ich regulowanie potrwa wiele tygodni – na Ziemię będzie docierało 18 rozmazanych obrazów. Po jednym z każdego segmentu. Specjaliści spodziewają się, że pod koniec kwietnia zwierciadło główne zostanie ustawione. Dopiero wówczas można będzie rozpocząć proces testowania i ustawiania pozostałych trzech instrumentów naukowych teleskopu. Rozpocznie się sprawdzanie ich możliwości w zakresie obserwowania zarówno obiektów znajdujących się w Układzie Słonecznym, jak i tych oddalonych o miliardy lat świetlnych. NASA zapowiada, że pierwsze obrazy o docelowej jakości upubliczni pod koniec czerwca lub na początku lipca. Teraz więc powinniśmy trzymać kciuki z NIRCam. Żaden inny instrument nie może przejąć jego zadania pomocy w ustawieniu zwierciadła. Obecnie więc cała misja zależy od prawidłowego działania tego instrumentu. Jeśli z NIRCam jest coś nie tak, nie będziemy mogli ustawić zwierciadła. Dlatego też instrument składa się z dwóch kamer. Mamy pełną redundancję. Jeśli jednej z nich coś się stanie, będziemy mieli drugą, wyjaśnia Mark McCaughrean, naukowiec w JWST Science Working Group oraz starszy doradca Europejskiej Agencji Kosmicznej. Jeden z pozostałych trzech instrumentów naukowych, MIRI, został częściowo włączony jeszcze w czasie gdy Teleskop Webba leciał w kierunku orbity wokół L2. Dwa pozostałe instrumenty, NIRSPec i FGS/NIRiss były podczas podróży ogrzewane przez specjalne podgrzewacze. Dzięki temu pozbyto się z nich ewentualnych resztek pary wodnej, jakie mogły uwięznąć na Ziemi, co zapobiegło kondensacji wody i jej zamarznięciu na instrumentach. Grzałki te zostały właśnie wyłączone. Z budową i zadaniami poszczególnych instrumentów możecie zapoznać się w naszym wcześniejszym tekście. Proces chłodzenia instrumentów naukowych potrwa kilka tygodni. Docelowa temperatura ich pracy wynosi poniżej -223 stopni Celsjusza. Początkowo instrumenty chłodzą się pasywnie i trzem z nich to wystarczy. Wyjątkiem jest MIRI, który do prawidłowej pracy wymaga ekstremalnie niskich temperatur sięgających -266 stopni Celsjusza. Dlatego też urządzenie wyposażono w specjalistyczny dwustopniowy system chłodzący. Obecnie najwyższa temperatura po stronie gorącej teleskopu wynosi 55 stopni Celsjusza, a najniższa po stronie zimnej to -213 stopni Celsjusza. NASA dodała też dodatkowe punkty pomiaru temperatury w samym module instrumentów naukowych. Będą one aktualizowane raz dziennie. Dzięki nim wiemy, że temperatura MIRI wynosi obecnie -125 stopni Celsjusza, temperatura NIRCam spadła już do -157 stopni, urządzenie NIRSPec zostało schłodzone do -146 stopni, a FGS-NIRIS osiągnęło -148 stopni. Fine Steering Mirror, niewielkie lustro odpowiedzialne za stabilizację obrazu, osiągnęło zaś temperaturę -195 stopni. « powrót do artykułu
  5. Archeolodzy, którzy prowadzą wykopaliska w Winkelsteeg w Nijmegen, odkryli pod koniec ubiegłego roku świetnie zachowaną błękitną szklaną misę sprzed ok. 2 tys. lat. Piękną barwę uzyskano dzięki zastosowaniu tlenku metalu. Oprócz misy odkryto tam pozostałości domostw i studni. Badacze i urząd miasta (Gemeente Nijmegen) poinformowali o znaleziskach w drugiej połowie stycznia. Wykopaliska są prowadzone przed planowaną rozbudową infrastruktury. Pierwsza wzmianka o dzisiejszym Nijmegen pochodzi z I wieku p.n.e. Wówczas powstał tam strategicznie położony obóz wojskowy z widokiem na doliny rzek Waal i Ren. Niedawno, o czym informowaliśmy, w pobliżu Nijmegen odkryto rzymską drogę i kanał sprzed 2000 lat. Zapewniały one łączność z limesem, granicą rzymską nad dolnym Renem. W pobliżu rzymskiego obozu istniała osada, Oppidum Batavorum, zamieszkana przez ludność z plemienia Batawów. Miejscowość została zniszczona podczas powstania przeciwko Rzymianom. Gdy powstanie stłumiono, Rzymianie rozbudowali swój obóz, stał się on bazą Legio X Germina, a wokół obozu Batawowie znowu się osiedlili. W 98 roku Nijmegen stało się miastem na prawie rzymskim. Wspaniałą błękitną misę znaleziono na terenie, na którym istniała wioska Batawów. Zabytek zachował się świetnie, nie jest nawet wyszczerbiony. Oczywiście, nie jest on dziełem Batawów, a niezbitym dowodem na ich kontakty z Rzymianami. W końcu do miasta można było dojść spacerkiem, mówi Pepijn van de Geer, dyrektor wykopalisk. Specjalista zachwyca się niezwykle wysoką jakością wykonania misy. Ona jest naprawdę wyjątkowa. Może pochodzić z dużych miejscowości z terenu Germanii, np. dzisiejszej Kolonii czy Xantenu. W tym czasie istniały tam warsztaty szklarskie. Jednak równie dobrze mogła ona powstać na terenie Italii. Jak importowany wyrób tak wysokiej klasy trafił w ręce Batawów? Van de Geer sądzi, że albo w drodze wymiany handlowej – Rzymianie kupowali duże ilości skór – albo dzięki służbie w rzymskiej armii. Batawowie często stacjonowali bowiem na granicach Imperium i byli za to sowicie wynagradzani. Archeolodzy już wcześniej wiedzieli, że na terenie prac mogą coś znaleźć. Przed około 40 laty odkryto tam nekropolię, wiedziano o pozostałościach osady. Obecnie obszar ten jest szczegółowo badany. Z nekropolii wydobywane są przedmioty złożone ze zmarłymi. Z kolei dzięki osadom w niedawno odkrytej studni specjaliści mogą więcej dowiedzieć się o uprawianych w okolicy roślinach i hodowanych zwierzętach. « powrót do artykułu
  6. W poznańskim parku Cytadela Zarząd Zieleni Miejskiej (ZZM) przygotowuje zbiorniki wodne do wiosennej migracji płazów. Ropuchy szare i zielone już wkrótce, bo w marcu, wybudzą się bowiem z odrętwienia zimowego i rozpoczną sezon godowy. Oczyszczono sadzawki w Ogrodzie Wodnym i Rosarium. Wypompowaną wodę zagospodarowano na terenie parku. Z dna usunięto muł i zalegające śmiecie. Oprócz tego uszczelniono niecki. Jak podkreśla ZZM, sadzawka w Rosarium jest czyszczona raz na 3 lata, a zbiornik w Ogrodzie Wodnym rokrocznie. W pracach tych biorą udział ichtiolodzy i herpetolodzy z Uniwersytetu Przyrodniczego w Poznaniu. Tak było i w tym roku: ichtiolodzy zajęli się np. odłowieniem ryb i sporządzeniem ekspertyzy. Ekspertyza ichtiologiczna Według ekspertyzy ichtiologicznej, w zbiorniku znajdowało się 4280 ryb o łącznej biomasie 65 kilogramów. Najwięcej, bo około 60 kg, było karasi srebrzystych. Specjaliści odłowili także 19 osobników lina i 16 sztuk ozdobnej formy karasia [...]- opowiada Szymon Prymas, dyrektor ZZM. Obecność tych gatunków świadczy o tym, że sadzawki zostały samowolnie zarybione, co stanowi poważne zagrożenie dla chronionych gatunków płazów. Wyniki ekspertyzy wskazują ponadto, że wszystkie liny przejawiały cechy typowe dla form głodowych. Prosimy o niewrzucanie ryb do zbiorników. To nie jest dobre rozwiązanie ani dla płazów, które niedługo rozpoczną migrację, ani dla samych ryb - dodaje Prymas. Przed takimi działaniami przestrzega również dr inż. Mikołaj Kaczmarski z Katedry Zoologii Uniwersytetu Przyrodniczego w Poznaniu (UPP). Populacja ropuch zielonych rozradzających się w Rosarium jest jedną z największych w śródmieściu Poznania i przekracza liczbę ponad 100 dorosłych osobników. Największym zagrożeniem dla nich, poza niszczeniem siedlisk, są ryby wpuszczane do miejsc ich rozrodu. Znajdziemy tutaj też ropuchę szarą. Niegdyś występowała traszka zwyczajna, ale wyginęła pod wpływem presji drapieżniczej ze strony ryb [...]. Migracja i gody ropuchy zielonej Ropucha zielona (Bufotes viridis) opuszcza kryjówki, kiedy temperatura wody przekroczy 15 stopni, a powietrza sięgnie ok. 10°C. Płytkie zbiorniki, takie jak te z Cytadeli, nagrzewają się szybko. Wystarczy parę ciepłych dni. Jako pierwsze w zbiornikach lęgowych pojawiają się samce. Samice odpowiadają na ich nawoływania. Dawniej gody i składanie skrzeku przypadały na koniec kwietnia i początek maja. Nasz zespół badawczy zauważa jednak zmiany w terminach wybudzania się płazów, a co za tym idzie - migracji do zbiorników rozrodczych. Dzieje się to znacznie szybciej niż kilkanaście lat temu, a ropuchy na Cytadeli potrafią rozpocząć gody już po 20 marca. Powodem jest tzw. efekt miejskiej wyspy ciepła i postępujące globalne ocieplenie, które wpływa na różne aspekty życia zwierząt - podkreśla herpetolog z UPP. Na szczęście miasto zaczyna zauważać problemy płazów. Ochrona przyrody jest konieczna, bo to ściśle chroniona grupa zwierząt, która w skali globalnej wymiera. Drobne zbiorniki wodne w terenach zieleni Zbiorniki w Ogrodzie Wodnym i Rosarium są siedliskami chronionych płazów. Ponieważ w pobliżu znajdują się drzewa, wpadają do nich liście czy pyłki. Płytka woda szybko się nagrzewa, przez co tworzą się warunki sprzyjające rozwojowi różnych mikroorganizmów. Z kolei rybom żyje się tu ciężko, bo takie zbiorniki z jednej strony prędko się nagrzewają, a z drugiej - szybko tracą temperaturę. Tutaj nie ma żadnej roślinności, żadnego planktonu. Są to skrajnie niesprzyjające warunki do tego, żeby populacja ryb mogła [...] trwale funkcjonować - wyjaśnia dr inż. Kaczmarski.   « powrót do artykułu
  7. Majowie wierzyli, że kakaowiec to dar od bogów. Niezwykle cenili tę roślinę, jej ziarno wykorzystywali ją m.in. jako środek płatniczy. Nic więc dziwnego, że produkcja kakao była ściśle kontrolowana przez elity Majów. Wiemy też, że na północnym Jukatanie kakaowiec uprawiano w świętych gajach. Dotychczas nikt nie znalazł śladów żadnego z nich, a problem był tym większy, że na Jukatanie jest zbyt sucho dla kakaowca. Profesor Richard Terry oraz studenci Bryce Brown i Christopher Balzotti z Brigham Young University, we współpracy z uczonymi z USA i Meksyku, zidentyfikowali miejsca, w których była odpowiednia wilgotność, a rośliny miały zapewniony potrzebne im tam cień i brak gwałtownych zmian pogody. O ile klimat Jukatanu niezbyt nadaje się na uprawę kakaowca, naukowcy stwierdzili, że idealne dla tej rośliny warunki panują w licznych lejach krasowych. Zapewniały one odpowiedni mikroklimat, wilgotność i osłonę przez wiatrem. Na łamach Journal of Archaeological Science Reports naukowcy informują o wyników analiz przeprowadzonych w 11 lejach krasowych. W glebie9 z nich znaleźli ślady teobrominy i kofeiny, kombinacji biomarkerów unikatowych dla kakaowca. Co więcej, odkryli tam ślady rytuałów, takich jak rampy do których prowadziły schody, rzeźby w kamieniu, ołtarze i składane w ofierze przedmioty z jadeitu i ceramiki. Od lat poszukiwaliśmy śladów teobrominy i znaleźliśmy dowody na uprawę kakao w miejscach, których się nie spodziewaliśmy. Zaskoczyły nas też artefakty ceremonialne. Moi studenci weszli do jednego z lejów i zaczęli krzyczeć, że jest tam jakaś budowla. Okazało się, że 1/3 leja zajmowały schody, mówi profesor Terry. Odkrycie dokonane przez naukowców z BYU potwierdza, że uprawa kakao odgrywało bardzo ważną rolę zarówno w rytuałach jak i handlu Majów. Miało wpływ na całą ich gospodarkę. Licząca ponad 100 km główna droga handlowa Majów na Jukatanie przebiegała w pobliżu setek lejów krasowych. Można więc przypuszczać, że ci liderzy, którzy nakazali wybudowanie drogi, wykorzystywali ją do kontrolowania produkcji kakao. W jednym z lejów krasowych, znajdujących się w pobliżu wioski Coba, położonej 45 km na północny zachód od miasta Tulum, znaleziono ozdobione bransoletą ramię figurki przymocowane do kadzielnicy oraz wykonane z ceramiki ziarna kakaowca. Uczeni trafili tam również na kakaowce. Niewykluczone zatem, że w leju, zwanym przez miejscowych „Dzadz ion” w okresie postklasycznym (1000–1400) znajdował się święty gaj. W tych lejach krasowych widzimy związek pomiędzy strukturami religijnymi, a świętą rośliną. A skoro kakao było środkiem płatniczym, to leje krasowe były miejscami, gdzie środek ten rósł i był kontrolowany. To wzbogaca naszą wiedzę na temat gospodarki, polityki i duchowości Majów, dodaje profesor Terry. « powrót do artykułu
  8. Długoletnie badania nad radiofarmaceutykami celowanymi w pewne typy nowotworów, w tym trudny w diagnozowaniu i leczeniu rak rdzeniasty tarczycy, wreszcie przyniosły obiecujące rezultaty w fazie przedklinicznej. Otrzymane wyniki rodzą nadzieję na rozwój teranostyki nowotworów. Pracują nad tym także naukowcy z Ośrodka Radioizotopów POLATOM w Narodowym Centrum Badań Jądrowych. Receptory cholecystokininy-2 (CCK2R) mają zdolność wiązania hormonów peptydowych, takich jak cholecystokinina (CCK) i gastryna. Ponadto zwiększona częstość występowania tych receptorów obserwowana jest w komórkach niektórych nowotworów, np. w raku rdzeniastym tarczycy. Dlatego od ponad dwóch dekad receptory CCK2R znajdują się w centrum zainteresowania naukowców projektujących leki do obrazowania molekularnego. Jednakże leczenie nakierowane na CCK2R wciąż nie zostało wprowadzone do praktyki klinicznej. Międzynarodowa grupa ekspertów z dziedziny medycyny nuklearnej oraz radiofarmacji, w tym z Ośrodka Radioizotopów POLATOM Narodowego Centrum Badań Jądrowych, podsumowała swoje własne doświadczenia oraz doświadczenia innych grup naukowców w badaniach rozwojowych nad nowymi radiofarmaceutykami nakierowanymi na CCK2R i w badaniach klinicznych z ich użyciem. Naukowcy donoszą, iż najnowsze badania kliniczne wykazały potencjał znakowanych izotopami promieniotwórczymi analogów gastryny w obydwu zastosowaniach – zarówno w obrazowaniu, czyli w wykrywaniu i lokalizacji zmian nowotworowych, jak i w celowanej radioterapii wewnętrznej. Potwierdza się tu koncepcja teranostyki - zastosowania wiodącej cząsteczki nakierowanej na cel biologiczny do diagnostyki lub terapii, zależnie od charakterystyki fizycznej przyłączonego izotopu promieniotwórczego. Wyniki pierwszych badań klinicznych wskazują na możliwość szerszego zastosowania radiofarmaceutyków celujących w CCK2R. Nadekspresja, czyli zwiększona w porównaniu do komórek zdrowych częstość występowania receptorów CCK2R w komórkach nowotworowych raka rdzeniastego tarczycy (z ang. Medullary Thyroid Carcinoma, MTC) czy w innych nowotworach, sprawia, że radiofarmaceutyki celujące w ten receptor mogą być skuteczne w obrazowaniu i terapii celowanej schorzeń onkologicznych. W szczególnie trudnej sytuacji są pacjenci z MTC, u których stwierdzono występowanie przerzutów nowotworowych, ponieważ aktualnie dostępne dla nich metody leczenia są bardzo ograniczone. W ostatnich latach prowadzono badania przedkliniczne szeregu peptydowych analogów gastryny nakierowanych na CCK2R” - mówi prof. Renata Mikołajczak z Ośrodka Radioizotopów POLATOM NCBJ. „Tylko kilka z nich przeszło do fazy badań klinicznych. Wśród nich należy wymienić związki znakowane indem-111 ([111In]In-CP04) do obrazowania w technice SPECT (z ang. Single Photon Emission Computed Tomography), galem-68 ([68Ga]Ga-DOTA-MGS5) do obrazowania w technice PET (z ang. Positron Emission Tomography) oraz lutetem-177 ([177Lu]Lu-PP-F11N) do peptydowej radioterapii wewnętrznej PRRT (z ang. Peptide Receptor Radionuclide Therapy). U pierwszych pacjentów, u których zastosowano nowe radioznaczniki, uwidocznione zostały zmiany nowotworowe, które nie były widoczne w klasycznych badaniach tomografii komputerowej czy rezonansu magnetycznego. Intensywne gromadzenie radiofarmaceutyków w zmianach nowotworowych stwarza szczególne nadzieje wiązane z zastosowaniem PRRT, ponieważ nowe analogi gastryny charakteryzują się stabilnością metaboliczną, wysokim gromadzeniem w zmianach nowotworowych oraz niską toksycznością dla nerek i mogą być bezpiecznie stosowane w leczeniu nowotworów. Naukowcy zapowiadają dalsze innowacyjne badania i kolejne próby zwiększenia skuteczności diagnostycznej leków celujących w CCK2R. Wykorzystają do tego najnowsze osiągnięcia nauki, modyfikacje cząsteczek na drodze syntezy organicznej i projektowania z wykorzystaniem metod obliczeniowych. Wspominają także o wprowadzeniu nowych izotopów promieniotwórczych o fizycznej charakterystyce promieniowania lepiej dostosowanej do indywidualnego przebiegu choroby. Będzie to prowadzić do personalizacji leczenia. Realizowanie właśnie takich kierunków badań przyświeca aktualnie prowadzonym w NCBJ projektom CERAD i NOMATEN, rozbudowującym potencjał infrastrukturalny i kadrowy NCBJ. Raport naukowców zatytułowany „Update on Preclinical Development and Clinical Translation of Cholecystokinin-2 Receptor Targeting Radiopharmaceuticals” został opublikowany w czasopiśmie Cancers. « powrót do artykułu
  9. Jedno z najcenniejszych dzieł dawnej wrocławskiej kolekcji muzealnej wróciło do Wrocławia! - cieszy się Muzeum Narodowe we Wrocławiu (MNWr). Dzięki badaniom proweniencyjnym przeprowadzonym przez MNWr i działaniom restytucyjnym Ministerstwa Kultury i Dziedzictwa Narodowego odzyskano „Opłakiwanie Chrystusa” z warsztatu Lucasa Cranacha starszego. Od 1970 r. obraz znajdował się w zbiorach Muzeum Narodowego (Nationalmuseum) w Sztokholmie. Dzieło ma być pokazywane na wystawie „Sztuka europejska XV-XX wieku”. W ciągu ostatnich kilku lat wystawa ta wzbogaciła się o znakomite przykłady malarstwa europejskiego – wśród nich m.in. o dzieła Jordaensa, Tintoretta, Bloemaerta. Nie mam wątpliwości, że będzie się znakomicie prezentowało w tym towarzystwie. Crème de la crème sztuki dawnej – podkreślił dyrektor MNWr Piotr Oszczanowski. Pierwsza publiczna prezentacja obrazu miała miejsce 31 stycznia. Odbyła się w obecności ministra kultury i dziedzictwa narodowego Piotra Glińskiego. On-line wzięli w niej udział przedstawiciele sztokholmskiej instytucji. Fundatorzy obrazu "Opłakiwanie Chrystusa" powstało w drugiej połowie lat 30. XVI w. w warsztacie niemieckiego malarza i rytownika Lucasa Cranacha starszego. Zobaczymy na nim zarówno postaci biblijne (Marię, Marię Magdalenę i Jana Ewangelistę), jak i bohaterów świeckich; do tych ostatnich należą fundatorzy obrazu - saski kupiec Konrad von Günterode i jego żona Anna z domu von Alnpeck - oraz ich dzieci Tillmann, Anna, Veronika i Apolonia. Niezwykłość tego dzieła polega na tym, iż w najbliższym otoczeniu zmarłego Chrystusa pojawiają się oprócz postaci świętych bohaterowie świeccy, konkretne osoby znanej z nazwiska rodziny, których reakcja na wydarzenie wydaje się być dość dwuznaczna. Nikt ze świeckich bohaterów obrazu nie kieruje wzroku na werystycznie wręcz ukazane ciało martwego Chrystusa, a niektóre z nich – i to w sposób iście prowokacyjny – nawiązują kontakt wzrokowy z widzem – mówi dyrektor Oszczanowski. Jak dzieło trafiło do wrocławskich zbiorów muzealnych? Historycy przypuszczają, że luterański obraz został ufundowany przez żonę zmarłemu mężowi. Nie wiadomo, w jaki sposób trafił do katolickiej kaplicy książęcej kościoła klasztornego cystersów w Lubiążu. Wiemy natomiast, że XIX wieku – prawdopodobnie w wyniku przeprowadzonej w Prusach kasaty klasztoru – dzieło przeniesiono do zbiorów wrocławskich. W 1880 roku obraz został przekazany Śląskiemu Muzeum Sztuk Pięknych we Wrocławiu. W czasie II wojny światowej obraz, podobnie jak inne zabytki, trafił do składnicy dzieł sztuki w Kamieńcu Ząbkowickim. W lutym 1946 roku w składnicy doszło do włamania. Zaginęło wówczas ponad 100 obrazów. Prawdopodobnie to właśnie wtedy ukradziono „Opłakiwanie Chrystusa”. Dzieła bowiem nie znalazła polska ekipa poszukiwawcza, która dotarła do Kamieńca 10 lutego. Jako że Wrocław po wojnie znalazł się w granicach Polski, to zgodnie z prawem międzynarodowym Polska stała się właścicielem spuścizny miasta. Opłakiwanie Chrystusa wpisano więc na listę poszukiwanych polskich dzieł sztuki. Muzeum Narodowe w Sztokholmie kupiło obraz na aukcji w 1970 roku. Sprzedawcami byli spadkobiercy Sigfrida Häggberga, szwedzkiego inżyniera, który od początku lat 20. XX wieku mieszkał w Polsce. Był dyrektorem spółek należących do firmy Ericsson. W czasie wojny Häggberg współpracował z polskim podziemiem, został skazany na śmierć, ale ułaskawiono go po interwencji władz szwedzkich. Nie wiemy, w jaki sposób Opłakiwanie Chrystusa do niego trafiło. Identyfikacja Dzieło Cranacha zostało odnalezione w szwedzkich zbiorach przez Piotra Oszczanowskiego, dyrektora Muzeum Narodowego we Wrocławiu. Następnie doktor Robert Heś, kierownik Gabinetu Dokumentów MNWr. przygotował całą dokumentację archiwalną potwierdzającą, że obraz pochodzi z Wrocławia. Dzięki temu Ministerstwo Kultury i Dziedzictwa Narodowego mogło w 2019 roku podjąć działania restytucyjne. W sierpniu 2021 w Szwecji zapadła ostateczne decyzja odnośnie zwrotu obrazu, następnie rozpoczęły się kilkumiesięczne procedury prawne związane z jego zwrotem. « powrót do artykułu
  10. W przeszłości astronomowie często zakładali, że atmosfery egzoplanet są jednorodne i próbowali rozumieć je w ten sposób. Nasze badania pokazują, że nawet atmosfery gazowych olbrzymów poddawanych intensywnemu promieniowaniu mają złożoną trójwymiarową strukturę, mówi Jens Hoeijmakers z Uniwersytetu w Lund. Uczony wchodzi w skład międzynarodowego zespołu, który zauważył, że atmosfera egzoplanety WASP-189b jest – podobnie jak Ziemia – złożona z warstw. Otaczająca naszą planetę atmosfera składa się z kilku warstw o różnych właściwościach. Na przykład w troposferze – która sięga od powierzchni Ziemi na średnią wysokość 13 km – znajduje się niemal cała para wodna występująca w atmosferze, występuje pionowy ruch powietrza, a temperatura spada wraz ze wzrostem wysokości. Z kolei w znajdującej się powyżej stratosferze pary wodnej niemal nie ma, pionowe ruchy powietrza nie występują, a temperatura rośnie wraz ze wzrostem wysokości. Teraz okazało się, że odległa o 322 lata świetlne od Ziemi WASP-189b również ma atmosferę złożoną z warstw. WASP-189b została odkryta w 2018 roku. To podobny do Jowisza gazowy olbrzym, położony 20-krotnie bliżej swojej gwiazdy niż odległość między Ziemią a Słońcem. A temperatury planety sięgają 3200 stopni Celsjusza. Teraz, dzięki spektrografowi HARPS w La Silla Observatory w Chile po raz pierwszy udało się bardziej szczegółowo przyjrzeć atmosferze takiego „gorącego Jowisza”. Zbadaliśmy światło pochodzące z gwiazdy WASP-189 po jego przejściu przez atmosferę WASP-189b. Gazy w atmosferze absorbują niektóre częstotliwości światła, tworząc w ten sposób swoisty odcisk palca. Dzięki HARPS mogliśmy zidentyfikować substancje występujące w atmosferze, mówi główna autorka badań, Bibiana Prinoth, doktorantka z Uniwersytetu w Lund. W gazach atmosferycznych zauważono dzięki temu obecność m.in. żelaza, chromu, wanadu, magnezu i manganu. Jednak naukowców najbardziej zaintrygowała obecność tlenku tytanu. Na Ziemi substancja ta bardzo rzadko występuje, jednak na WASP-189b może odgrywać podobną rolę, co ozon w atmosferze ziemskiej. Tlenek tytanu absorbuje fale o niewielkiej długości, takie jak promieniowanie ultrafioletowe. Jego wykrycie wskazuje, że w atmosferze WASP-189b znajduje się warstwa, która wchodzi w interakcje z promieniowaniem gwiazdy macierzystej w podobny sposób, w jaki ozon na Ziemi wchodzi w interakcje z promieniowaniem słonecznym, wyjaśnia profesor Kevin Heng, astrofizyk z Uniwersytetu w Bernie. Okazało się, że to nie jedyna warstwa. Naukowcy stwierdzili, że sygnatury poszczególnych gazów nieco różnią się od tego, czego się spodziewali. Sądzimy, że do tych zmian przyczyniły się silne wiatry i inne procesy. A ponieważ sygnatury różnych gazów były zmienione w różny sposób, uważamy, że wskazuje to, iż gazy te znajdują się w różnych warstwach atmosfery. Podobnie dla obserwatora z zewnątrz sygnatury pary wodnej i ozonu w atmosfery Ziemi wydawałyby się zmienione w różny sposób, gdyż znajdują się w różnych warstwach, dodaje Prinoth. A profesor Heng zauważa, że odkrycie to oznacza, iż należy sprawdzać, czy atmosfery egzoplanet nie mają trójwymiarowej struktury. To wymaga zmian w technikach analizy danych, modelowaniu komputerowym i teorii dotyczącej budowy atmosfery, stwierdza uczony. « powrót do artykułu
  11. Naukowcy z Wydziału Biologii Uniwersytetu Gdańskiego (UG) utworzyli bank nasion 33 gatunków roślin rzadkich i zagrożonych na Pomorzu Gdańskim. Oprócz tego powstał m.in. bank tkanek w postaci kultur in vitro. Zadania te zrealizowano w ramach projektu „Ochrona zasobów genowych dziko rosnących zagrożonych gatunków roślin naczyniowych Pomorza Gdańskiego”. Finansowanie zapewnił Wojewódzki Fundusz Ochrony Środowiska i Gospodarki Wodnej w Gdańsku. Dzięki temu, że zabezpieczono sporo różnych roślin, jeśli kiedyś wyginą w naturze, będzie można odtworzyć ich populacje. Ochrona poza miejscem naturalnego występowania W ramach pracy naukowej naszego zespołu staramy się zbierać informacje odnośnie do zasobów tych gatunków, a także istniejących i potencjalnych zagrożeń dla ich trwania na stanowiskach naturalnych. Dzięki temu jesteśmy w stanie planować skuteczne metody ochrony gatunków roślin szczególnie cennych w naszym regionie -  podkreśla kierowniczka projektu, dr Magdalena Lazarus z Katedry Taksonomii Roślin i Ochrony Przyrody. Dr Lazarus dodaje, że nie zawsze można zachować stanowiska, stąd metody ochrony ex situ (poza miejscem naturalnego występowania), do których należą uprawa w ogrodach botanicznych czy przechowywanie materiału nasiennego. Metody te są stosowane na całym świecie powszechnie. My naszymi działaniami wpisujemy się w ten trend. Zespół z UG wykorzystał aż 4 metody ochrony ex situ. Założono nie tylko wspomniane na początku banki nasion i tkanek (w postaci hodowli in vitro), ale i bank izolatów DNA. Mówi się także o uprawie roślin w Gołubieńskim Ogrodzie Botanicznym. Projektem objęto 97 gatunków Projekt dotyczył 97 gatunków. Spośród nich 31 jest objętych ochroną ścisłą, a 15 częściową. Jak podano w komunikacie prasowym, dla 46 gatunków zastosowano którąś lub wszystkie cztery metody ochrony ex situ. W przypadku pozostałych 51 gatunków dokonano rozpoznania stanowisk i zasobów na obszarze Pomorza Gdańskiego. Bank nasion utworzono dla 33 gatunków roślin rzadkich i zagrożonych na Pomorzu Gdańskim. Obecnie w ramach kolekcji kultur in vitro hodowanych jest 15 gatunków, jednakże dla łącznie 23 gatunków przygotowaliśmy już odpowiednie protokoły wprowadzania tych taksonów do hodowli – wylicza dr Lazarus. Ze szczegółowym sprawozdaniem można się zapoznać tutaj [PDF]. « powrót do artykułu
  12. Hiszpańscy naukowcy opisali mechanizm ochronny, który odgrywa kluczową rolę w kontrolowaniu odpowiedzi immunologicznej pacjentów cierpiących na choroby autoimmunologiczne, jak stwardnienie rozsiane. Mechanizm, którego działanie rozpoczyna się od witaminy D. Wyniki badań przeprowadzonych przez specjalistów z Josep Carreras Leukaemia Research Institute oraz Germans Trias i Pujol Hospital zostały opisane na łamach Cell Reports. Komórki dendrytyczne to rodzaj komórek odpornościowych występujących w krwi i wielu innych tkankach, takich jak skóra, wyściółka nos, płuc czy jelit. Odgrywają niezwykle ważną rolę w inicjowaniu odpowiedzi immunologicznej swoistej, służą jako nośniki informacji pomiędzy swoistym a nieswoistym układem odpornościowym, przetwarzają materiał antygenowy i prezentują go na powierzchni komórki. Gdy zostają aktywowane, przemieszczają się do węzłów chłonnych, prezentują antygen limfocytom i w ten sposób uruchamiają swoistą odpowiedź immunologiczną. Jednak u osób ze stwardnieniem rozsianym układ odpornościowy nie pracuje prawidłowo. Jego komórki atakują otoczkę mielinową chroniącą włókna nerwowe w mózgu i rdzeniu kręgowym. Niszczą ją, a pozbawione otoczki nerwy ulegają degradacji. Zauważono jednak, że gdy komórki dendrytyczne zostaną potraktowane witaminą D, rozwija się tolerancja immunologiczna. To sugeruje, że leczenie takimi komórkami dendrytycznymi mogłoby spowalniać postępy stwardnienia rozsianego. Hipoteza ta jest właśnie badana na pacjentach Germans Trias i Pujol Hospital. Jednak pomimo dowodów, wspierających powyższą hipotezę, mechanizm działania witaminy D i komórek dendrytycznych był dotychczas nieznany. Odkryli go dopiero naukowcy z Hiszpanii. Uczeni wykazali, że gdy receptory witaminy D łączą się z proteiną STAT3, dochodzi do aktywowania TET2, powodującego demetylację DNA, co w przypadku komórek dendrytycznych pomaga aktywować geny odpowiedzialne za zwiększenie tolerancji układu odpornościowego. Dzięki odkryciu tego mechanizmu być może uda się w przyszłości wykorzystać związki pomiędzy receptorami witaminy D, białkiem STAT3 a genem TET2 do manipulowania właściwościami immunogennymi komórek dendrytycznych. Autorzy odkrycia stwierdzili, że ich odkrycie może mieć znaczenie nie tylko w kontekście patologicznych sytuacji, gdy zwiększona tolerancja układu odpornościowego jest niepożądana – jak na przykład w mikrośrodowisku guza nowotworowego czy procesów metastatycznych – ale również tam, gdzie można by celowo zwiększać tolerancję, w tym leczeniu powodowanych przez układ odpornościowy stanów zapalnych, takich jak reumatoidalne zapalenie stawów czy stwardnienie rozsiane". « powrót do artykułu
  13. W lipcu ubiegłego roku na budowie brytyjskiej szybkiej kolei HS2 w miejscowości Twyford w Buckinghamshire archeolodzy trafili na – jak się wydawało – rozkładający się kawałek drewna Gdy go jednak wydobyli z ziemi, ich oczom ukazała się drewniana rzymska rzeźba antropomorficzna. Wykonany z jednego kawałka drewna zabytek ma 67 centymetrów wysokości i 18 cm szerokości. To niezwykle rzadkie znalezisko. Wcześniej podobny zabytek znaleziono na Wyspach Brytyjskich ponad 100 lat temu. Na podstawie stylu wykonania oraz podobnego do tuniki ubrania, które wyrzeźbił twórca, oceniono, że figura pochodzi z wczesnego okresu rzymskiego. Opinię tę wydają się potwierdzać znalezione obok fragmenty ceramiki z lat 43–70. Archeolodzy nie są pewni, czemu rzeźba służyła, ale przypuszczają, że mogła być złożona w ofierze bogom. Dlatego też złożono ją delikatnie w ziemi, a nie wyrzucono do dołu z odpadkami. Najbardziej zaś rzuca się oczy świetny stan zachowania figury. Przetrwała ona 2000 lat dzięki temu, że trafiła do gliniastego dołu wypełnionego wodą. Brak tlenu utrudnił rozkład drewna. Zabytek zachował się tak dobrze, że widać wyrzeźbione włosy czy tunikę. A odkrycie figury każe się zastanowić, kogo ona przedstawia, do czego była używana i dlaczego była ważna dla ludzi żyjących w tym miejscu w I wieku naszej ery. Ramiona figury uległy całkowitemu rozkładowi, także nogi nie zachowały się w całości. Widoczne są za to zadziwiające szczegóły. Widać włosy, głowa zwrócona jest lekko w lewo, wydaje się, że sięgająca nad kolana tunika jest przewiązana w pasie, wyraźnie widać też kształt łydki. Figura od kilku miesięcy znajduje się w specjalistycznym laboratorium, gdzie jest konserwowana i badana. W wykopie znaleziono też niewielki odłamany z niej fragment, który przesłano do badań metodą radiowęglową, co powinno pozwolić na określenie jej wieku. Zbadany zostanie też skład izotopowy drewna, co powinno pomóc w określeniu miejsca jego pochodzenia. Tak stare drewniane figury rzadko znajduje się na Wyspach Brytyjskich. W 1922 roku na brzegu Tamizy odkryto neolitycznego „Idola z Dagenham”, a w 1866 roku na brzegach rzeki Teign znaleziono drewnianą figurę z wczesnej epoki żelaza. « powrót do artykułu
  14. Dr Monika Kaźmierczak z Uniwersytetu Łódzkiego prowadzi badania nad giełkotem, nazywanym inaczej mową bezładną. Giełkot cechuje się bardzo szybkim tempem mówienia (tachylalią), co prowadzi do opuszczania/powtarzania sylab albo słów. Do cech giełkotu zalicza się także chaotyczny sposób formułowania myśli. Czym jest giełkot? Mowa bezładna należy do tej samej grupy co jąkanie, czyli zaburzeń płynności mowy. Pierwsza wzmianka o giełkocie pojawiła się w 1717 roku, w 1964 została opublikowana przełomowa praca „Cluttering” Deso Weissa, a szczególna intensyfikacja badań nad tym zaburzeniem nastąpiła po 2007 roku, kiedy powołano Międzynarodowe Stowarzyszenie Giełkotu (International Cluttering Association, ICA). Nadal jednak mowa bezładna jest nie do końca zbadana, a przede wszystkim mało znana poza grupą specjalistów - podkreśla dr Kaźmierczak z Zakładu Dialektologii Polskiej i Logopedii. Giełkot jest zaburzeniem płynności mowy. Cechuje go zbyt szybkie i/lub nieregularne tempo wypowiedzi. Występują zwykłe niepłynności, nieprawidłowe wykorzystywanie pauz, akcentów wyrazowych i zdaniowych oraz nadmierna koartykulacja, czyli wymawianie głosek z wykorzystaniem narządów mowy właściwych dla głosek sąsiednich. Jak wspomniano na początku, do cech giełkotu zalicza się także chaotyczny sposób formułowania myśli. Ponieważ mowa bezładna nie jest dogłębnie zbadana, nie wiadomo, jaka jest dokładnie skala jej występowania. W ostatnich dziesięcioleciach przeprowadzono parę badań populacyjnych; zgodnie z tymi z 2014 r., giełkot może występować u ok. 1,2% dzieci w wieku 10-12 lat. Giełkot często współwystępuje z innymi zaburzeniami, np. z ADHD, trudnościami w nauce czy jąkaniem. Wiele osób zmagających się z giełkotem nie ma świadomości zaburzenia i nigdy nie słyszało o mowie bezładnej. Miewają one jednak pewne podejrzenia, że „coś” im przeszkadza w skutecznym komunikowaniu. Pośpiech Objawy w mowie mogą być potęgowane przez kilka czynników. Wymienia się wśród nich: 1) szybsze tempo życia, 2) większą presję wewnętrzną („pęd by pędzić”), 3) wrażenie konieczności nadążania za światem, 4) impulsywność w działaniach czy 5) chęć sprostania wielozadaniowości. Niestety, ktoś, kto mówi za szybko i niezrozumiale, może być postrzegany jako mniej kompetentny (zarówno w szkole, jak i w pracy). Działania popularyzatorskie Prace dr Kaźmierczak koncentrują się na wyróżnieniu charakterystycznych cech giełkotu. Badaczka chce przybliżyć jego istotę logopedom, a także pacjentom i ich rodzicom. Specjalistka publikuje w periodykach naukowych i występuje na konferencjach. Oprócz tego stale szuka nowych narzędzi i metod pracy logopedycznej. Na początku listopada zeszłego roku z inicjatywy dr Kaźmierczak na Facebooku powstał profil Grupa G (jak GIEŁKOT). Zgodnie z informacjami zamieszczonymi na FB, jest to polska grupa dla każdego, kto chce lepiej poznać giełkot/giełkot z jąkaniem/jąkanie z giełkotem. Na razie należy do niej 76 osób. Jakiś czas temu zaczęłam zastanawiać się, czy dzięki zastosowaniu metafor osoby zmagające się z giełkotem będą w stanie precyzyjniej scharakteryzować swój sposób myślenia i mówienia. Okazało się, że użycie języka metaforycznego ułatwia opisanie tego zaburzenia mowy w procesie diagnozy oraz na kolejnych etapach terapii. Pogłębiona analiza oraz większa (samo)świadomość pomagają pacjentom/klientom zrozumieć, z czego wynikają ich trudności w komunikacji, a logopedom – trafnie identyfikować problemy i lepiej wspierać osoby z giełkotem. Działalność pani Moniki została doceniona. Jak ujawniono w komunikacie prasowym uczelni, w najnowszym newsletterze International Cluttering Association „The T.R.A.D.E” znalazły się: 1) informacja o wystąpieniu dr Moniki Kaźmierczak podczas XVII Ogólnopolskiej Konferencji Logopedycznej ("Giełkot w metaforach"), a także wzmianki o 2) rozmowie "Zrozumieć giełkot", przeprowadzonej z dr Kaźmierczak podczas III edycji Konferencji Online "Oblicza niepłynności mowy", i o 3) Grupie G (jak GIEŁKOT). « powrót do artykułu
  15. Podczas badań na myszach zidentyfikowano potencjalny cel terapeutyczny dla jednego z najbardziej niebezpiecznych nowotworów – raka trzustki. W 2020 roku był to 12. pod względem liczby nowych zachorowań (495 773) i 7. pod względem liczby zgonów (466 003) nowotwór na świecie. To wysoce śmiertelny nowotwór, a główną tego przyczyną jest fakt, że rozpoznawany jest najczęściej na późnym etapie rozwoju. Na łamach Cell Reports ukazał się właśnie artykuł, w którym Angus Cameron i jego zespół z Barts Cancer Institute na Queen Mary University w Londynie opisują, w jaki sposób zdrowe komórki wpływają na rozwój nowotworu. Naukowcy zauważyli, że zablokowanie ekspresji proteiny PKN2 zmieniało zachowanie zdrowych komórek – fibroblastów – otaczających guz nowotworowy. Może to dawać nadzieję, że wzięcie na cel fibroblastów da lekarzom wpływ na postępy raka trzustki. Okazało się bowiem, że gdy naukowcy zablokowali ekspresję PKN2 w modelu przedklinicznym choroby, guz stał się bardziej agresywny. Fibroblasty są jak strażnicy raka trzustki, a nasze odkrycie wskazuje, że mogą odgrywać zarówno pozytywna, jak i negatywną rolę w progresji choroby, wyjaśnia główna współautorka badań, doktor Shinelle Menezes. Okazuje się bowiem, że aktywowane przez PKN2 fibroblasty ograniczają rozprzestrzenianie się nowotworu powodując, że jego komórki ściśle do siebie przylegają w ramach guza. Gdy ekspresja PKN2 zostaje zablokowana, fibroblasty tracą możliwość utrzymywania komórek w guzie. Komórki mogą się z niego łatwiej wydostawać i nowotwór może się rozprzestrzeniać. Jednocześnie jednak oznacza to, że do guza łatwiej mogą dostać się zwalczające go komórki układu odpornościowego. Odkrycie to może mieć istotne znaczenie dla wykorzystania fibroblastów zrębu trzustki do walki z nowotworem, dodaje Menezes. « powrót do artykułu
  16. W Albanii ukazał się przekład "Potopu" Henryka Sienkiewicza. Autorem tłumaczenia jest Astrit Beqiraj, znany i ceniony tłumacz literatury polskiej, wieloletni pracownik Ambasady RP w Tiranie. W ramach Programu Translatorskiego ©Poland inicjatywę wsparł Instytut Książki (IK). Dwutomowe wydanie Përmbytja, bo taki jest tytuł przekładu, ukazało się nakładem oficyny Papirus z Tirany. Pierwszy tom ma 714 stron, a drugi 602. Za wydawnictwo trzeba zapłacić 3.600 leków.   Jak podaje IK, w ostatnich latach Beqiri przetłumaczył ze wsparciem Programu Translatorskiego ©Poland również inne dzieła, np. Poezje wybrane Tadeusza Różewicza (z Benem Andonim, Botimet Poeteka, 2018), Grę na wielu bębenkach Olgi Tokarczuk (IDK Publishing, 2019) oraz książki Janusza Korczaka (wszystkie 3 wydała oficyna Uegen): Króla Maciusia Pierwszego (2018), Bankructwo Małego Dżeka (2019) oraz Józki, Jaśki, Franki (2021). « powrót do artykułu
  17. Wirusolodzy od dawna wiedzą o niezwykłym zjawisku dotyczącym wirusów atakujących drogi oddechowe. Dla patogenów tych naturalnym środowiskiem są ciepłe i wilgotne drogi oddechowe. Ich względna wilgotność wynosi zwykle 100%. Wystawienie na bardziej suche powietrze poza organizmem powinno szybko niszczyć wirusy. Jednak wykres czasu ich przeżywalności w powietrzu układa się w literę U. Przy wysokiej wilgotności wirus może przetrwać dość długo, gdy wilgotność spada, czas ten ulega skróceniu, ale w pewnym momencie trend się odwraca i wraz ze spadającą wilgotnością powietrza czas przetrwania wirusów... zaczyna się wydłużać. Naukowcy od dawna zastanawiali się, dlaczego przeżywalność wirusów zaczyna rosnąć, gdy względna wilgotność powietrza zmniejszy się do 50–80 procent. Odpowiedzią mogą być przejścia fazowe w ośrodku, w którym znajdują się wirusy. Ray Davis i jego koledzy z Trinity University w Teksanie zauważyli, że w bogatych w białka aerozole i krople – a wirusy składają się z białek – w pewnym momencie wraz ze spadkiem wilgotności zachodzą zmiany strukturalne. Jedna z dotychczasowych hipotez wyjaśniających kształt wykresu przeżywalności wirusów w powietrzu o zmiennej wilgotności przypisywała ten fenomen zjawisku, w wyniku którego związki nieorganiczne znajdujące się w kropli, w której są wirusy, w miarę odparowywania wody migrują na zewnątrz kropli, krystalizują i tworzą w ten sposób powłokę ochronną wokół wirusów. Davis i jego zespół badali aerozole i kropelki złożone z soli i białek, modelowych składników dróg oddechowych. Były one umieszczone na specjalnym podłożu wykorzystywanym do badania możliwości przeżycia patogenów. Okazało się, że poniżej 53-procentowej wilgotności krople badanych płynów tworzyły złożone wydłużone kształty. Pod mikroskopem było zaś widać, że doszło do rozdzielenia frakcji płynnej i stałej. Zdaniem naukowców, to dowód na przemianę fazową, podczas której jony wapnia łączą się z proteinami, tworząc żel. Zauważono jednak pewną subtelną różnicę. O ile w aerozolach do przemiany takiej dochodzi w ciągu sekund, dzięki czemu wirusy mogą przeżyć, to w większych kroplach proces ten zachodzi wolnej i zanim dojdzie do chroniącego wirusy przejścia fazowego, patogeny mogą zginąć. Naukowcy sądzą, że kluczowym elementem dla zdolności przeżycia wirusów, które wydostały się z dróg oddechowych, jest skład organiczny kropli i aerozoli. Ten zaś może zależeć od choroby i stopnia jej zaawansowania. Następnym etapem prac nad tym zagadnieniem powinno być systematyczne sprawdzenie składu różnych kropli oraz wirusów w nich obecnych, co pozwoli zrozumieć, jak działa proces dezaktywacji wirusów w powietrzu, mówi Davis. Zdaniem eksperta od aerozoli, Petera Raynora z University of Minnesota, badania takie można będzie w praktyce wykorzystać np. zapewniając odpowiedni poziom wilgotności powietrza w budynkach w zimie, nie tylko dla komfortu ludzi, ale również po to, by stworzyć najmniej korzystne warunki dla przetrwania wirusów. « powrót do artykułu
  18. Od 18 stycznia do 12 czerwca br. Muzeum Archeologiczne w Gdańsku (MAG) zaprasza na wystawę „Wino w starożytnym Sudanie”. Można ją zobaczyć w Spichlerzu "Błękitnym Baranku". Na zwiedzających czekają fragmenty zabytkowych naczyń ceramicznych, kopie meroickich ołtarzy ofiarnych z początków naszej ery czy plansze prezentujące zagadnienia związane z winem. Wyświetlany jest również film Piotra Parandowskiego „W stronę Nilu”. Prezentowane zabytki pochodzą z MAG i z Muzeum Archeologicznego w Poznaniu. Historia uprawy winorośli i produkcji wina w starożytnym Sudanie (Nubii) sięga II w. p.n.e. Jak podkreślono w opisie wystawy na stronie MAG, w tym czasie na terenie Nubii istniało rozległe Państwo Meroickie (IV w. p.n.e. – VI w. n.e.), którego królowie prowadzili ożywioną wymianę handlową i kulturalną z ościennymi krajami. Wino było ważnym elementem kultury także później, w okresie postmeroickim (V–VII w. n.e.), po rozpadzie królestwa meroickiego na mniejsze państewka, i w okresie chrześcijańskim (VII–XIV w.), gdy ukształtowały się trzy potężne królestwa: Nobadia, Makuria i Alwa. Kres tradycji winiarskiej przyniósł islam, który na terenie Nubii zaczął się rozprzestrzeniać od XV w. Jak to się zaczęło? Handlarze greccy, a później rzymscy dzielili się z mieszkańcami pustyni swoją wiedzą nt. uprawy oraz wykorzystania winorośli. Początkowo śródziemnomorska kultura wina pojawiła się w Egipcie, a stamtąd trafiła na południe. O tym, że winiarstwo w Nubii kwitło i że na szeroką skalę importowano wino z okolic śródziemnomorskich, świadczą np. 1) relikty tawern i magazynów, 2) pozostałości po tłoczniach czy 3) fragmenty amfor (naczynia te służyły do przechowywania i transportowania wina, zarówno produkowanego na miejscu, jak i importowanego). O winie w muzeum Zwiedzający wystawę poznają historię uprawy winorośli w starożytnym Sudanie, metodę produkcji miejscowych amfor, konstrukcję i działanie nubijskich tłoczni, a także zasięg handlu winem od II w. p.n.e. po średniowiecze. Na wystawie znajdują się wspomniane na początku plansze i fragmenty zabytkowej ceramiki: dzbanów, naczyń zasobowych, miseczek i kubków datowanych na okres meroicki i postmeroicki oraz amfor chrześcijańskich. Można się też przyjrzeć współczesnym przedmiotom, w tym narzędziom, związanym z uprawą ziemi i przechowywaniem produktów rolnych. Kuratorkami wystawy są dr Dobiesława Bagińska i Elżbieta Kołosowska. « powrót do artykułu
  19. Po 266 latach udało się pokonać zjawisko Leidenfrosta, dzięki czemu naukowcy z City University of Hong Kong mogli pochwalić się stworzeniem efektywnego systemu chłodzenia cieczą, który sprawdza się w temperaturach nawet powyżej 1000 stopni Celsjusza. System taki można będzie zastosować w silnikach lotniczych, rakietowych oraz poprawić dzięki niemu stabilność i bezpieczeństwo pracy reaktorów atomowych przyszłej generacji. Zjawisko Leidenfrosta od wieków fascynuje naukowców, a niedawno informowaliśmy o odkryciu jego nowej odmiany. Zjawisko to zostało odkryte w 1756 roku. Powoduje ono, że krople cieczy spadając na bardzo gorącą powierzchnię nie odparowują od razu, ale poruszają się, lewitując nad nimi. Ich odparowanie może potrwać dłuższa chwilę. Pomiędzy kroplą a powierzchnią tworzy się bowiem warstwa pary, która znacząco obniża transfer energii z powierzchni. Przez to chłodzenie cieczą bardzo gorących powierzchni jest nieefektywne. Przez ponad 200 lat nie potrafiono poradzić sobie z tym problemem. Naukowcy z Hongkongu stworzyli powierzchnię o zróżnicowanej teksturze, której główne elementy mają różne właściwości termiczne i geometryczne. Nowatorska struktura złożona jest z trzech zasadniczych elementów. Pierwszy z nich to wystające ponad powierzchnię miniaturowe filary służące do transferu energii. Drugi, to termiczna warstwa izolująca umieszczona pomiędzy filarami, której zadaniem jest zassanie i odparowanie cieczy. Zaś element trzeci, to znajdujące się pod warstwą izolującą mikrokanaliki w kształcie litery U, służące do odprowadzenia pary. Eksperymenty wykazały, że taka architektura zapobiega powstawaniu zjawiska Leidenfrosta nawet w temperaturach dochodzących do 1150 stopni Celsjusza i pozwala na efektywne kontrolowane chłodzenie cieczą w zakresie od 100 do ponad 1150 stopni. Nasze multidyscyplinarne badania to prawdziwy przełom w nauce i inżynierii. Połączyliśmy tutaj naukę o powierzchniach, hydro- i aerodynamice, chłodzeniu, nauki materiałowe, fizykę, wiedzę z dziedziny energii i inżynierii. Poszukiwanie nowych strategii w dziedzinie chłodzenia cieczami to ważny obszar badawczy inżynierii materiałowej od 1756 roku. Udało nam się pozbyć zjawiska Leidenfrosta. W ten sposób dokonaliśmy zmiany paradygmatów dotyczących możliwości chłodzenia cieczą w bardzo wysokich temperaturach. Dotychczas nikomu nie udało się tego osiągnąć, cieszy się profesor Wang Zunkai. Uczony wyjaśnia, że pojawianie się zjawiska Leidenfrota powoduje, że tam, gdzie mamy do czynienia z bardzo wysokimi temperaturami wykorzystujemy chłodzenie powietrzem, zamiast potencjalnie bardziej efektywnego chłodzenia cieczą. Ma to miejsce szczególnie w silnikach samolotowych, rakietowych i reaktorach jądrowych. Dodaje, że nowatorską strukturę można produkować w formie elastycznej okładziny do mocowania na elementach, które mają być chłodzone. To szczególnie ważne tam, gdzie bezpośrednie stworzenie takiej struktury na etapie produkcji urządzenia byłoby trudne. « powrót do artykułu
  20. Niejednokrotnie słyszeliśmy o plastiku trafiającym do oceanów oraz pomysłach na jego usunięcie. Musimy jednak pamiętać, że plastikiem zanieczyściliśmy nie tylko wody na całym świecie. Nowe badania pokazuje, że zagęszczenie nanoplastiku w powietrzu jest znacznie większe niż dotychczas sądzono. Dominik Brunner ze Szwajcarskich Federalnych Laboratoriów Wiedzy Materiałowej i Technologii (Empa) oraz badacze z Uniwersytetu w Utrechcie i Austriackiego Centralnego Instytutu Meteorologii i Geofizyki postanowili zbadać, jak wiele nanoplastiku opada na ziemię z atmosfery. Uzyskane wyniki zaskoczyły badaczy. Z ich pomiarów wynika bowiem, że niektóre fragmenty nanoplastiku mogą być niesione przez powietrze nawet na odległość 2000 kilometrów, na każdego roku na teren Szwajcarii opada około 43 bilionów (!) miniaturowych fragmentów plastiku. To zaś może oznaczać, że w powietrza na Szwajcarię, od centrów miast po odległe alpejskie doliny, każdego roku spada 3000 ton plastikowych odpadów. To bardzo wysokie szacunki, wyższe niż uzyskane przez innych naukowców, dlatego potrzebne są kolejne badania. Tym bardziej, że problem nanoplastiku rozprzestrzeniającego się w powietrzu jest w ogóle bardzo słabo rozpoznany. Tymczasem badania Brunnera, pomimo szokujących wyników, są najdokładniejszymi tego typu pracami na świecie. Szwajcarski uczony i jego holendersko-austriacki zespół opracowali nową metodę oceny zanieczyszczenia plastikiem, w której użyli spektrometru mas. Na miejsce badań naukowcy wybrali szczyt góry Hoher Sonnenblick w Parku Narodowym Hohe Tauern w Austrii. To niewielki obszar położony na wysokości 3106 metrów n.p.m. Od 1886 roku znajduje się tam obserwatorium Centralnego Instytutu Meteorologii i Geodynamiki. Od czasu rozpoczęcia tutaj badań naukowych obserwatorium było nieczynne jedynie przez 4 dni. Naukowcy codziennie o tej samej porze przez 38 dni pobierali próbki śniegu z tego samego obszaru. Zawartość próbek była następnie badana, a dzięki danym meteorologicznym można było określić, skąd wiatr przyniósł plastik. Naukowcy wykazali, że największa emisja nanoplastiku ma miejsce w gęsto zaludnionych obszarach miejskich. Około 30% zanieczyszczeń plastikiem trafiało na górski szczyt ze źródeł znajdujących się w promieniu 200 kilometrów, głównie z miast. Jednak wszystko wskazuje na to, że alpejskie szczyty są też zanieczyszczane plastikiem, który jest unoszony przez wiatr z powierzchni oceanu. Około 10% plastiku pochodziło z odległości ponad 2000 kilometrów, źródłem części był Atlantyk. Oprócz plastiku w śniegu zidentyfikowano wiele innych zanieczyszczeń, od saharyskiego piasku po fragmenty okładzin hamulcowych z samochodów. To zanieczyszczenia, którymi oddychamy, które trafiają do naszych organizmów. Obecnie nie jest jasne, czy zanieczyszczenie mikro- i nanoplastikiem jest szkodliwe dla zdrowia. Warto jednak podkreślić, że nanoplastik jest na tyle mały, że trafia głęboko do płuc, a jest na tyle mały, że może z nich przedostać się do krwi. « powrót do artykułu
  21. Podczas nadzoru archeologicznego nad budową nowej przystani dla Bazylejskiego Klubu Wioślarskiego w Kaiseraugst, odkryto ruiny rzymskiego amfiteatru. To drugi znany amfiteatr w kantonie Argowia i trzeci w  Augusta Raurica, najstarszej znanej rzymskiej kolonii u brzegów Renu.. Colonia Augusta Rauracorum została założona w 44 roku p.n.e. przez Luciusa Munatiusa Plancusa w pobliżu siedzib galijskiego plemienia Rauraków, pokrewnych Helwetom. Budowę przystani prowadzono na terenie byłego rzymskiego kamieniołomu, więc nie spodziewano się tam znaleźć żadnych struktur. Początkowo budowniczy trafili na owalną ścianę, a archeolodzy nie wiedzieli, czym ta ściana była. Dopiero podczas wykopalisk okazało się, że odkryto amfiteatr. Owalna budowla miała wymiary 50 x 40metrów i znajdowała się w dolinie kamieniołomu porzuconego jeszcze w czasach rzymskich. Kamieniołom znajdował się w pobliżu umocnionego fortu Castrum Rauracense. Na południu amfiteatru znajdowała się duża brama, której towarzyszyły dwa mniejsze wejścia. Dodatkowe wejście znajdowało się od zachodu. Znaleziono też progi z piaskowca. Wewnętrzna ściana areny pokryta była tynkiem. Wszystkie te wskazówki: owalny kształt budowli, rozkład wejść, miejsce na trybunę, wskazuje, że był to amfiteatr. Na podstawie użytych materiałów oraz faktu, że stał w opuszczonym kamieniołomie, budynek datowany jest na późną starożytność, prawdopodobnie zaś powstał w IV wieku. To czyni go najmłodszym znanym amfiteatrem w Imperium Romanum. Jego wybudowanie pokazuje, że Castrum Rauracense było znaczącą miejscowością w IV wieku. Było to ważne centrum wojskowe zabezpieczające granice imperium oraz centrum administracyjne. Amfiteatr w Kaiseraugst to druga, po amfiteatrze w Windisch (Vindonissa), tego typu budowla na terenie Argowii. W całej Szwajcarii znamy obecnie osiem rzymskich amfiteatrów. Znajdują się one w miejscowościach Avenches (Aventicum), Martigny (Forum Claudii Vellensium), Nyon (Colonia Iulia Equestris) oraz na półwyspie Enge w Bernie (Brenodurum). Postanowiono, że amfiteatr z Kaiseraugst nie zostanie odsłonięty. Inwestor zabezpieczy go tamą, a nad amfiteatrem powstanie nowy budynek. W ten sposób ruiny zostaną zabezpieczone w optymalny sposób, a przyszłe pokolenia będą mogły – jeśli zechcą – przeprowadzić pełne badania archeologiczne. « powrót do artykułu
  22. Badacze z Uniwersytetu Wrocławskiego i Uniwersytetu Medycznego im. Piastów Śląskich we Wrocławiu odtwarzają preparaty medyczne i leki ze staropolskiej apteki. Skąd biorą receptury? Znajdują je w pamiętnikach, listach, diariuszach i prywatnych notatkach z XVI-XVIII w. Są to zarówno rękopisy, jak i druki. Jak wyjaśnia dr Jakub Węglorz, generalnie są to materiały, w których autorzy wspominają o tym, że byli chorzy, że zażywali jakieś leki. Są wśród nich także zapiski lekarzy - pamiętniki, rachunki czy opisy przypadków z uwzględnieniem zaordynowanych środków. Mając nazwę leku bądź jego przybliżoną recepturę, naukowcy próbują ustalić na podstawie podręczników medycznych, lekospisów, dyspensatoriów aptekarskich, jaki był dokładny skład preparatu i jak go wykonywano. Projekt "Odtworzenie i analiza preparatów leczniczych zidentyfikowanych na podstawie egodokumentów epoki staropolskiej (XVI-XVIII wiek)" jest realizowany w ramach grantu (SONATA BIS). Współpraca historyków z farmaceutami Projekt dotyczy przeszłości i z tego względu jest po części prowadzony przez historyków z UWr. Analiza leków nie jest jednak ich domeną, stąd współpraca z Wydziałem Farmaceutycznym Uniwersytetu Medycznego we Wrocławiu. Najpierw w źródłach historycznych wyszukuje się informacje o lekach stosowanych w epoce staropolskiej. Następnie są one odtwarzane w laboratorium. Końcowym etapem jest analiza zawartości związków czynnych i podstawowej aktywności biologicznej preparatów. Założeniem projektu jest ustalenie, jakimi lekami się wtedy leczono. W dawnych farmakopeach, dyspensatoriach tych leków jest bardzo wiele - są ich setki i tysiące. Oczywiście nie wszystkie i nie zawsze były używane. Najpierw historycy muszą znaleźć odpowiednie leki - te faktycznie wykorzystywane, odtworzyć ich recepty, a następnie, już we współpracy z farmaceutami, spróbować je przetłumaczyć na współczesny język laboratoryjny, czyli ustalić, co te słowa znaczą, jakie składniki naprawdę zostały wymienione i jaki jest proces, procedura wykonania [...]. Ostatni etap to wykonanie [...] w warunkach laboratoryjnych i analiza działania, składu i potencjalnych efektów - tłumaczy dr Węglorz. Egzotyczne składniki: opium, ambra czy mięso żmii Trudności nie brakuje, bo istnieją różne wersje preparatów, poza tym z biegiem czasu receptury się zmieniały. Kolejną przeszkodą są egzotyczne składniki. Niektóre są trudno dostępne ze względów prawnych, ponieważ należą do substancji podlegających ścisłej kontroli. Dr Węglorz podkreśla, że zespół ma np. spore problemy z opium. Poza tym część leków to są po prostu bardzo rzadko dostępne rzeczy, których się już nie wykorzystuje, jak np. ambra. Oprócz tego jest problem z substancjami odzwierzęcymi czy roślinnymi pozyskiwanymi z gatunków chronionych. W jednym z przepisów musieliśmy użyć mięsa żmii; żmija zygzakowata jest zwierzęciem chronionym i nie możemy, zresztą [nawet] nie chcielibyśmy, polować na żmije. Karkołomne zadanie polegało więc na "polowaniu" na martwe egzemplarze. Tu w sukurs przyszli badaczom leśnicy i nadleśnictwa z województwa dolnośląskiego. Jak widać, mierząc się z większymi lub mniejszymi przeszkodami, prowadzący projekt naukowcy starają się kompletować wszystkie składniki... Interdyscyplinarna analiza receptury teriaku Pod koniec ubiegłego roku w Journal of Ethnopharmacology ukazał się artykuł nt. teriaku (driakwi) „Prawdziwa driakiew – panaceum, trucizna czy oszustwo” (The real Theriac – panacea, poisonous drug or quackery?) Jego autorami, poza dr. Węglorzem, byli dr. Danuta Raj i Maciej Włodarczyk z Katedry i Zakładu Farmakognozji i Leku Roślinnego Uniwersytetu Medycznego we Wrocławiu oraz dr Katarzyna Pękacka-Falkowska z Katedry i Zakładu Historii i Filozofii Nauk Medycznych Uniwersytetu Medycznego im. Karola Marcinkowskiego w Poznaniu.   « powrót do artykułu
  23. Reaktor badawczy MARIA w trybie ekspresowym zmienił harmonogram pracy, by zapobiec brakom w dostawach medycznego molibdenu-99 (Mo-99). Działanie miało związek z usterką w holenderskim reaktorze HFR, który należy do grona kilku światowych dostawców tego radionuklidu. Molibden-99 jest podstawowym radioizotopem służącym do uzyskiwania radioaktywnego technetu. Ten zaś jest wykorzystywany w większości procedur medycyny nuklearnej. Molibden-99 jest produkowany w reaktorach badawczych na drodze napromieniania neutronami tarcz uranowych. W zeszłym tygodniu przed jednym z rutynowych uruchomień reaktora HFR wykryto usterkę w obiegu chłodzenia (przed każdym kolejnym uruchomieniem dokonuje się kontroli wszystkich instalacji). Z tego względu nie można go było uruchomić zgodnie z planem, czyli 20 stycznia. Okazało się jednak, że już 21 stycznia produkcję HFR przejął reaktor MARIA w Otwocku-Świerku pod Warszawą. 20 stycznia byliśmy w Świerku w trakcie spotkania z naszymi partnerami produkującymi medyczny molibden-99, kiedy jednemu z nich zadzwonił telefon - opowiada Paweł Nowakowski, dyrektor Departamentu Eksploatacji Obiektów Jądrowych w Narodowym Centrum Badań Jądrowych (NCBJ). Nasz gość odszedł na chwilę na bok, by odebrać połączenie i po chwili spytał, czy za dwa dni jesteśmy w stanie awaryjnie napromienić dodatkowe tarcze uranowe. Dobro pacjentów onkologicznych jest dla nas niezwykle ważne, więc zgodziłem się bez wahania. Jesteśmy również przygotowani do przeprowadzenia kolejnych napromieniań w najbliższych tygodniach. Jak podkreślono w komunikacie prasowym NCBJ, zespół ekspertów przeprowadził szczegółowe obliczenia optymalizujące konfigurację rdzenia MARII. Później zatwierdziła je Państwowa Agencja Atomistyki. Udało się to zrealizować w zaledwie parę godzin. Zadanie wykonano tak szybko, gdyż od 2010 r. MARIA jest przygotowana do napromieniania tarcz uranowych do produkcji molibdenu-99. W roku przeprowadza się kilka cykli. NCBJ zaznacza, że w razie nieplanowanych przestojów u głównych dostawców reaktor badawczy MARIA może zmienić harmonogram i zapełnić lukę. Warto podkreślić, że MARIA jest jednym z najważniejszych dostawców napromienianych tarcz uranowych do produkcji Mo-99, odpowiedzialnym za około 10% światowych dostaw.     « powrót do artykułu
  24. Wiele ludzkich działań niesie ze sobą zewnętrzne koszty społeczne, środowiskowe czy zdrowotne. Gdy np. jedziemy samochodem, musimy zapłacić za paliwo, jednak cena paliwa nie uwzględnia kosztu zanieczyszczenia środowiska czy negatywnego wpływu spalin na ludzkie zdrowie. Naukowcy z brytyjskiego University of Sussex i koreańskiego Hanyang University podjęli się globalnego oszacowania kosztów zewnętrznych związanych z działalnością sektora transportowego i energetycznego. Okazało się, że koszty te wynoszą ponad 1/4 światowego produktu brutto. Z analizy przeprowadzonej przez profesorów Benjamina K. Sovacoola i Jinsoo Kima, wynika, że zewnętrzne koszty społeczne, zdrowotne i środowiskowe obu wspomnianych sektorów to 24,662 biliony USD, czyli około 29% światowego produktu brutto. Badania opublikowane na łamach pisma Energy Research & Social Science wykazały, że gdyby uwzględnić wszystkie koszty powodowane przez wykorzystywanie węgla – takie jak zmiana klimatu, zanieczyszczenie powietrza czy degradacja gleb – to cena węgla powinna być ponaddwukrotnie wyższa, niż jest obecnie. Autorzy badań podkreślają, że obecny system energetyczny nie sprawdza się pod względem rynkowym. Gdyby bowiem uwzględnić rzeczywiste koszty produkcji energii, to okazałoby się, że nieuwzględniane koszty są niemal równe obecnym kosztom produkcji, przez co wiele elektrowni węglowych i atomowych byłoby nieopłacalnych. Naukowcy przypominają przy tym, że również systemy produkcji energii odnawialnej niosą ze sobą koszty zewnętrzne. Podczas badań zidentyfikowaliśmy olbrzymie koszty zewnętrzne, które niemal nigdy nie są uwzględniane w rzeczywistych wydatkach związanych z jazdą samochodem czy użytkowaniem elektrowni węglowej. Uwzględnienie tych kosztów doprowadziłoby do radykalnej zmiany szacunków ekonomicznych i portfolio zasobów, na których polegają dostawcy energii, mówi profesor Sovacool. To nie jest tak, że społeczeństwo nie płaci tych kosztów. Po prostu koszty te nie są uwzględniane w cenie energii. I, niestety, te koszty zewnętrzne nie są ponoszone ani równo, ani uczciwie. Najbardziej poszkodowani są ci najsłabiej reprezentowani na rynku. To na przykład ludzie żyjący na obszarach o najbardziej zanieczyszczonym powietrzu, glebie i wodzie, których nie stać na przeprowadzkę w inne regiony czy mieszkańcy wysp ledwie wystających nad poziom morza, jak Vanuatu czy Malediwy, którzy już teraz są zagrożeni przez wzrost poziomu wód oceanicznych. Profesor Jinsoo Kim dodaje, że badania jasno pokazują, iż ropa naftowa, węgiel i związane z nimi odpady generują znacznie więcej kosztów w portfolio firm energetycznych niż inne metody produkcji energii. Gdyby prawdziwe koszty wykorzystywania paliw kopalnych były uwzględniane, to wielkie ponadnarodowe koncerny energetyczne, które dominują na światowym rynku, przynosiłyby olbrzymie straty. Jednak zamiast tego rachunek wystawiany jest społeczeństwom, które ponoszą te koszty. Na potrzeby swoich badań uczeni wykonali metaanalizę i syntezę 139 badań naukowych, w których dokonano w sumie 704 szacunków kosztów zewnętrznych. Były to 83 badania dotyczące dostarczania energii, 13 badań nad efektywnością energetyczną i 43 badania nad transportem. Z przeprowadzonej analizy wynika, że największe koszty zewnętrzne niesie ze sobą produkcja energii z węgla. Wynoszą one aż 14,5 centa na kWh, podczas gdy średni koszt produkcji energii z węgla w czasie całego okres działania elektrowni węglowej wynosi od 6,6 do 15,2 centa/kWh. Drugim pod względem wysokości kosztów zewnętrznych rodzajem pozyskiwania energii jest jej produkcja z gazu ziemnego. Tam koszty zewnętrzne to 3,5 centa/kWh, przy koszcie produkcji wynoszącym 4,4–6,8 centa/kWh. To poważne wyzwanie dla polityków, urzędników i planistów, by spowodować, żeby rynki transportowy i energetyczny funkcjonowały ja należy i uwzględniały w cenach swoich produktów biliony dolarów kosztów zewnętrznych, które obecnie przerzucają na społeczeństwo. Obecnie konsumenci są odseparowani od rzeczywistych kosztów pozyskiwania, transportu i przetwarzania surowców energetycznych oraz pozyskiwania z nich energii. A to oznacza, że kolosalny koszt społeczny i ekologiczny takich działań jest trudniej zauważyć. Zasadnicze pytanie brzmi, czy chcemy globalnych rynków, które manipulują kosztami zewnętrznymi dla własnych korzyści, czy też wolimy politykę, która wymusi na nich zinternalizowanie tych kosztów – stwierdza Sovacool. Autorzy badań zwracają uwagę, że w wielu pakietach pomocowych, które mają rozruszać gospodarkę po pandemii uwzględniono olbrzymie kwoty dla przemysłu paliw kopalnych, motoryzacyjnego czy lotniczego. Jednak długotrwałe ożywienie gospodarcze może się nie udać, jeśli sektory te nie będą ponosiły całości kosztów, jakie są związane z ich działalnością, dodaje profesor Kim. « powrót do artykułu
  25. Komputery kwantowe mogą zrewolucjonizować wiele dziedzin nauki oraz przemysłu, przez co wpłyną na nasze życie. Rodzi się jednak pytanie, jak duże muszą być, by rzeczywiście dokonać zapowiadanego przełomu. Innymi słowy, na ilu kubitach muszą operować, by ich moc obliczeniowa miała znaczący wpływ na rozwój nauki i technologii. Na pytanie to postanowili odpowiedzieć naukowcy z Wielkiej Brytanii i Holandii. Przyjrzeli się dwóm różnym typom problemów, jakie będą mogły rozwiązywać komputery kwantowe: złamaniu zabezpieczeń Bitcoina oraz symulowanie pracy kofaktora FeMo (FeMoco), który jest ważnym elementem białka wchodzącego w skład nitrogenazy, enzymu odpowiedzialnego za asymilację azotu. Z AVS Quantum Science dowiadujemy się, że naukowcy stworzyli specjalne narzędzie, za pomocą którego mogli określić wielkość komputera kwantowego oraz ilość czasu potrzebnego mu do rozwiązania tego typu problemów. Obecnie większość prac związanych z komputerami kwantowymi skupia się na konkretnych platformach sprzętowych czy podzespołach nadprzewodzących. Różne platformy sprzętowe znacząco się od siebie różnią chociażby pod względem takich kluczowych elementów, jak tempo pracy czy kontrola jakości kubitów, wyjaśnia Mark Webber z University of Sussex. Pobieranie azotu z powietrza i wytwarzanie amoniaku na potrzeby produkcji nawozów sztucznych to proces wymagający dużych ilości energii. Jego udoskonalenie wpłynęłoby zarówno na zwiększenie produkcji żywności, jak i zmniejszenie zużycia energii, co miałoby pozytywny wpływ na klimat. Jednak symulowanie odpowiednich molekuł, których opracowanie pozwoliłoby udoskonalić ten proces jest obecnie poza możliwościami najpotężniejszych superkomputerów. Większość komputerów kwantowych jest ograniczone faktem, że wykorzystywane w nich kubity mogą wchodzić w bezpośrednie interakcje tylko z kubitami sąsiadującymi. W innych architekturach, gdzie np. są wykorzystywane jony uwięzione w pułapkach, kubity nie znajdują się na z góry ustalonych pozycjach, mogą się przemieszczać i jeden kubit może bezpośrednio oddziaływać na wiele innych. Badaliśmy, jak najlepiej wykorzystać możliwość oddziaływania na odległe kubity po to, by móc rozwiązać problem obliczeniowy w krótszym czasie, wykorzystując przy tym mniej kubitów, wyjaśnia Webber. Obecnie największe komputery kwantowe korzystają z 50–100 kubitów, mówi Webber. Naukowcy oszacowali, że do złamania zabezpieczeń sieci Bitcoin w ciągu godziny potrzeba – w zależności od sprawności mechanizmu korekty błędów – od 30 do ponad 300 milionów kubitów. Mniej więcej godzina upływa pomiędzy rozgłoszeniem a integracją blockchaina. To czas, w którym jest on najbardziej podatny na ataki. To wskazuje, że Bitcoin jest obecnie odporna na ataki z wykorzystaniem komputerów kwantowych. Jednak uznaje się, że możliwe jest zbudowanie komputerów kwantowych takiej wielkości. Ponadto ich udoskonalenie może spowodować, że zmniejszą się wymagania, co do liczby kubitów potrzebnych do złamania zabezpieczeń Bitcoin. Webber zauważa, że postęp na polu komputerów kwantowych jest szybki. Przed czterema laty szacowaliśmy, że do złamania algorytmu RSA komputer kwantowy korzystający z jonów uwięzionych w w pułapce potrzebowałby miliarda fizycznych kubitów, a to oznaczało, że maszyna taka musiałaby zajmować powierzchnię 100 x 100 metrów. Obecnie, dzięki udoskonaleniu różnych aspektów tego typu komputerów, do złamania RSA wystarczyłaby maszyna o rozmiarach 2,5 x 2,5 metra. Z kolei do przeprowadzenia symulacji pracy FeMoco komputery kwantowe, w zależności od wykorzystanej architektury i metod korekcji błędów, potrzebowałyby od 7,5 do 600 milionów kubitów, by przeprowadzić taką symulację w ciągu około 10 dni. « powrót do artykułu
×
×
  • Dodaj nową pozycję...