Jump to content
Forum Kopalni Wiedzy

All Activity

This stream auto-updates     

  1. Past hour
  2. Nie wynika to z artykułu, że tym się kierowali nazywając jednorożcem Poprzednia, najmniejsza BH gwiazdowa ma 3.3 masy, więc to nie jest nie do pomyślenia, żeby jeszcze zejść 10%.
  3. To też, ale narkoza azotowa powoduje, że nurkowie na dużych głębokościach zachowują się, jakby byli napróci alko. Nie są w stanie wykonać prostych czynności manualny i nie myślą trzeźwo, o ile nie oddychają właściwą mieszanką, na przykład trimix poniżej 50m. Hel z resztą też pod wysokim ciśnieniem wywołuje objawy neurologiczne. Właśnie zauważyłem Twój nick, wcześniej nie zwróciłem na to uwagi Kiedyś czytałem, że na Marsa planują zabrać wodór, żeby na miejscu wytworzyć metan jako paliwo rakietowe. Chociaż w sumie, jak jest tam woda to i wodór można by uzyskać, aczkolwiek priorytetem będą potrzeby astronautów. MOXIE zapewni C i O2 z CO2.
  4. Czarna dziura opisana w artykule nie mogła powstać w wyniku kolapsu gwiazdy i nie bez powodu została nazwana "jednorożcem". Nie chodzi również o stosunkowo niewielką odległość od Słońca, Jej masa wskazuje, że jest to dotychczas hipotetyczna miniaturowa czarna dziura. Do tej grupy czarnych dziur zaliczane są tylko hipotetyczne pierwotne czarne dziury (primordial black holes), które nie są zbudowane z materii barionowej, lecz powstały krótko po Wielkim Wybuchu ze zgęstek ciemnej materii.
  5. Today
  6. Szacują, że od początku rewolucji przemysłowej (ok. 1800 roku) średnia temperatura powierzchni oceanów wzrosła o około 0,7°C. Wzrost ten z pewnością nie jest liniowy, ale nie wydaje mi się, aby w ciągu 5 lat temperatura oceanów miała wzrosnąć o 1,2 stopnia. Prędzej wróżyłbym na 50 lat. Nie zmienia to faktu, że te 50 lat minie zanim się zorientujemy, a wtedy będzie za późno na odwrócenie dramatu. Niektórzy wskazują, że już jest za późno. Ja mam nadzieję, że jeszcze nie jest.
  7. w nurkowaniu to właśnie azot jest przeszkodą bo nasyca krew który przy wynurzaniu bąbelkuje. Dlatego zamiast azotu dodaja helu lub czegoś tam. W apollo, fakt, był czysty tlen pod 1/3 atm, ale oddychali nim kilka dni. Swoją drogą musieli przecież przejść na "normalne" powietrze przed rozhermetyzowaniem po wylądowaniu.
  8. Kiedyś widziałem szacunki na podstawie ilości gwiazd w galaktyce, w tym gwiazd, które kończą jako supernowe, że powinna być jedna czarna dziura w promieniu kilkudziesięciu (50-100) lat świetlnych. Przy czym nie pamiętam czy wzięli pod uwagę dystrybucję gwiazd (dysk vs centrum). Tutaj rozważania na stackexchange: https://astronomy.stackexchange.com/questions/4725/statistically-what-would-the-average-distance-of-the-closest-black-hole-be
  9. Indyjski pieprz długi (Piper longum) jest wykorzystywany w medycynie ajurwedyjskiej do leczenia problemów układu pokarmowego, chorób płuc czy zapalenia stawów. Brak jednak naukowych dowodów, by pomagał na te schorzenia. Wiadomo jednak, że zawarty w nim alkaloid o nazwie piperlongumina zabija komórki nowotworowe. Teraz naukowcy odkryli, w jaki sposób zwalcza on glejaka Międzynarodowy zespół naukowy szczegółowo opisał na łamach ACS Central Science, jak piperlongumina przyłącza się do proteiny TRPV2 i upośledza jej aktywność. W glejaku dochodzi do nadmiernej ekspresji TRPV2, co wydaje się napędzać rozwój guza. Na podstawie dwóch różnych zwierzęcych modeli tej choroby naukowcy wykazali, że leczenie piperlonguminą znacząco zmniejsza guzy i przedłuża życie myszy. Dowiedli też, że alkaloid selektywnie niszczy ludzkie komórki glejaka. Badania te dają nam znacznie lepszy pogląd na sposób oddziaływania piperlonguminy na glejaka. Dzięki nim zyskaliśmy podstawy, na których można tworzyć bardziej efektywne metody leczenia, mówi współautorka badań Vera Moiseenkova-Bell z Penn Medicine. Nasze badania mogą mieć praktyczny wpływ na zdrowie ludzi cierpiących na tę straszną chorobę, dodaje Gonçalo J. L. Bernardes z Uniwersytetu w Lizbonie i Cambridge University. Badania rozpoczęły się od szerszego projektu, w ramach którego Bernardes badał przeciwnowotworowe właściwości piperlonguminy. Wraz z zespołem wykorzystał zaawansowane metody maszynowego uczenia się, by sprawdzić potencjalne metody interakcji tego alkaloidu z białkami kanałów jonowych TRP. Kanały jonowe to niewielkie otwory w błonach komórkowych, które umożliwiają przepływ określonych jonów. Kanały są wrażliwe na określony stymulanty, które je otwierają lub zamykają, regulując w ten sposób przepływ jonów. Bernardes i jego zespół odkryli, że piperlongumina działa jak inhibitor kanału jonowego TRPV2. Kanał ten istnieje w wielu typach komórek, jednak jego rola nie jest dobrze rozumiana. Po tym spostrzeżeniu naukowcy poprosili o pomoc laboratorium Moiseenkovej-Bell, które specjalizuje się w mikroskopii krioelektronowej. To pozwoliło na dokładne określenie miejsca, w którym piperlongumina łączy się z TRPV2 i go blokuje. Następnie przystąpiono do kolejnych eksperymentów, w czasie których uczeni przyjrzeli się komórkom różnych nowotworów i stwierdzili, że komórki wielopostaciowego, najbardziej rozpowszechnionego nowotworu mózgu, który niezwykle trudno jest leczyć, wykazują nadmierną ekspresję TRPV2. I, co niezwykle ważne, są bardzo wrażliwe na utratę tego kanału jonowego. Okazało się też, że istnieje związek pomiędzy większą ekspresją TRPV2 a większym stopniem agresywności nowotworu i gorszymi rokowaniami dla pacjenta. Nowotwory mózgu trudno jest leczyć m.in. dlatego, że lekom trudno jest pokonać barierę krew-mózg. Dlatego też uczeni opracowali specjalną strukturę z hydrożelu, którą można wypełnić piperlonguminą i wprowadzić do mózgu. Podczas eksperymentów wykazano, że taka struktura, która uwalniała alkaloid przez około 8 dni, przyczyniła się do niemal całkowitego zniszczenia guza i znacznego wydłużenia życia myszy. Teraz Bernardes i jego zespół pracują nad przygotowaniem badań przedklinicznych. Mają nadzieję, że w przyszłości uda im się rozpocząć badania kliniczne nad leczeniem glejaka za pomocą piperlonguminy. « powrót do artykułu
  10. Rak prostaty to obecnie jeden z dwóch najczęściej rozpoznawanych nowotworów złośliwych u mężczyzn. Zapadalność na raka gruczołu krokowego rośnie z wiekiem. To poważna choroba, jednak wcześnie wykryta jest uleczalna. Szybka, właściwa diagnostyka pozwala odpowiednio dobrać terapię i zwiększyć szansę pacjenta na przeżycie. Najdokładniej zmiany nowotworowe powala zobrazować rezonans magnetyczny (MRI). Niestety, badanie raka prostaty za pomocą tej metody jest skomplikowane. Niezbędne jest badanie wielu cech nowotworu, co utrudnia i znacznie wydłuża interpretację wyniku. Każdy otrzymany obraz musi być przeanalizowany osobno. Diagnostyka ta jest skomplikowana i trudniejsza niż w przypadku większości nowotworów złośliwych. Otrzymane wyniki są oceniane według skali PI-RADS (Prostate Imaging-Reporting and Data System), która umożliwia rozróżnienie zmian istotnych klinicznie. Analiza ta wymaga specjalistycznej wiedzy radiologów, którzy stanowią w Polsce zaledwie ok. 2 proc. lekarzy, co dodatkowo wydłuża czas oczekiwania na badanie i właściwą diagnozę. Interpretacja wyników jest subiektywna i zauważalne są różnice pomiędzy specjalistami doświadczonymi a początkującymi. Badania wykazały, że radiolodzy różnie interpretują, czy potencjalna zmiana nowotworowa jest inwazyjna. W Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym (OPI PIB) prowadzimy interdyscyplinarne badania, których wyniki mają praktyczne zastosowanie w wielu dziedzinach. Jednym z obszarów jest wykorzystanie najnowszych technologii IT w medycynie i ochronie zdrowia. Z naszych badań wynika, że sztuczna inteligencja może skutecznie usprawnić pracę lekarzy. Rezultaty są bardzo obiecujące i jestem przekonany, że także pomogą one innym naukowcom opracować nowoczesne narzędzia technologiczne, mające zastosowanie w diagnostyce nie tylko raka prostaty, ale także i innych chorób – mówi dr inż. Jarosław Protasiewicz, dyrektor Ośrodka Przetwarzania Informacji – Państwowego Instytutu Badawczego (OPI PIB). Ograniczenie liczby bolesnych biopsji Naukowcy z Laboratorium Stosowanej Sztucznej Inteligencji w OPI PIB opracowali platformę badawczą eRADS, która służy do standaryzacji opisów raportów medycznych. Narzędzie to pozwala obiektywnie ocenić istotność kliniczną zmiany na podstawie pięciostopniowej skali PI-RADS. Platforma umożliwia także zbieranie danych z badań, co w przyszłości pomoże stworzyć rozwiązania, które automatycznie będą szacowały cechy istotne klinicznie. W tym przypadku sztuczną inteligencję zastosowano do wspomagania procesów decyzyjnych. Badacze OPI PIB przeprowadzili badania pilotażowe z udziałem 16 pacjentów, diagnozowanych przez dwóch radiologów podczas ich dyżuru w Centralnym Szpitalu Klinicznym MSWiA w Warszawie. Specjaliści ci różnili się stażem pracy w zawodzie. Ich celem była ocena rzetelności oraz wstępnej użyteczności klinicznej systemu eRADS. Wyniki badania pilotażowego są obiecujące. Oceny istotności klinicznej zmiany przez radiologów z wykorzystaniem narzędzia opracowanego przez naukowców OPI PIB są bardziej zgodne, niż gdy dokonują oni analizy bez użycia platformy. Zastosowanie eRADS pomaga zmniejszyć różnice między jakością diagnozy lekarzy doświadczonych i niedoświadczonych. Precyzyjna ocena zmian pozwoli znacznie ograniczyć liczbę pacjentów, którzy są wysyłani na biopsję. W przypadku badania prostaty wiąże się ona z dyskomfortem pacjenta. Polega na pobraniu materiału z kilku do kilkunastu wkłuć. Sieci neuronowe zastąpią lekarzy? W naszym laboratorium badaliśmy także wykorzystanie w diagnostyce raka prostaty innych obszarów sztucznej inteligencji. Analizowaliśmy zastosowanie narzędzi wykorzystujących uczenie maszynowe i głębokie. Naszym celem było porównanie otrzymanych wyników z diagnozami postawionymi przez doświadczonych i niedoświadczonych radiologów. Model predykcyjny istotności klinicznej zmian, oparty o narzędzia uczenia maszynowego, bazował na cechach obrazu (np. jednorodności) w badanych komórkach i ich otoczeniu. Uzyskaliśmy model trafnie klasyfikujący istotne klinicznie zmiany z prawdopodobieństwem 75 proc., co można porównać do diagnozy niedoświadczonego lekarza. Najbardziej obiecujące rezultaty otrzymaliśmy jednak z zastosowania wiedzy domenowej w architekturze sieci neuronowych. Opracowane modele dają lepszą jakość diagnozy zmian nowotworowych w porównaniu z ocenami niedoświadczonych i doświadczonych radiologów, stawiając trafną diagnozę z prawdopodobieństwem 84 proc. – mówi Piotr Sobecki, kierownik Laboratorium Stosowanej Sztucznej Inteligencji w OPI PIB. Podsumowując, zastosowanie wiedzy domenowej w architekturze sieci neuronowych wpływa na szybkość uczenia modelu w przypadku diagnostyki raka prostaty. Analizowano efekt lokalizacji zmiany w prostacie i niezależnie od tego czynnika, wyniki otrzymane za pomocą modeli wykorzystujących sieci neuronowe były takie same lub lepsze od diagnozy postawionej przez doświadczonych radiologów. Potwierdziły to wyniki badania OPI PIB z użyciem danych historycznych od 6 radiologów oceniających 32 zmiany nowotworowe. Sztuczna inteligencja wykorzystująca uczenie głębokie nie zastąpi jednak lekarzy, ale ułatwi im pracę i przyspieszy rozpoczęcie leczenia pacjenta. Wciąż jednak mało jest otwartych zbiorów baz danych, które można wykorzystać do usprawnienia algorytmów sztucznej inteligencji. Należy pamiętać, że modele te są tak dobre, jak dane, na których zostały wyuczone. Chodzi zarówno o ich liczebność, jak i o jakość. 1) W Polsce z powodu raka prostaty codziennie umiera około 15 pacjentów, a choroba ta jest diagnozowana u co 8. mężczyzny 2) Ważne jest szybkie wykrycie choroby i podjęcie odpowiedniego leczenia. 3) Niestety, diagnostyka raka prostaty jest skomplikowana i trudna w porównaniu do metod wykrywania innych nowotworów. 4) Badacze z Laboratorium Stosowanej Sztucznej Inteligencji w Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym (OPI PIB) wykorzystali sztuczną inteligencję (SI) do usprawnienia diagnostyki obrazowej raka prostaty. 5) Najlepsze rezultaty uzyskali z zastosowaniem sieci neuronowych. Jakość otrzymanej diagnozy była na poziomie doświadczonego lekarza specjalisty lub wyższa.   « powrót do artykułu
  11. Odkryto najbliższą Ziemi czarną dziurę. Obiektowi nadano nazwę „Jednorożec” nie tylko dlatego, że znajduje się w Gwiazdozbiorze Jednorożca, ale również dlatego, że ta czarna dziura ma wyjątkowe właściwości. Co więcej, Jednorożec ma towarzysza, czerwonego olbrzyma, który zbliża się do końca swojego żywota. Nasze Słońce również stanie się w przyszłości czerwonym olbrzymem. Czarna dziura znajduje się w odległości zaledwie 1500 lat świetlnych od Ziemi. Ma też niezwykle małą masę, jest zaledwie 3-krotnie bardziej masywna niż Słońce. Ten system jest tak dziwny, że musieliśmy nazwać go Jednorożcem, mówi doktorant Tharindu Jayasinghe, którego zespól badał Jednorożca. Odkrycia dokonano podczas analizy danych z All Sky Automated Survey i Transiting Exopanet Survey Satellite. Jayasinghe i jego koledzy zauważyli coś niezwykłego – czerwonego olbrzyma, który okresowo zmienia jasność, co sugerowało, iż jest przez coś przyciągany i zmienia kształt. Uczeni przeprowadzili więc badania i doszli do wniosku, że tym, co wpływa na kształt gwiazdy jest prawdopodobnie czarna dziura o masie zaledwie 3 mas Słońca. Dla porównania, czarna dziura znajdująca się w centrum Drogi Mlecznej ma masę około 4,3 miliona ma Słońca. Tak, jak Księżyc deformuje ziemskie oceany, które przybliżają i oddalają się od niego, wywołując pływy, tak czarna dziura przyciąga gwiazdę, powodując, że wzdłuż jednej osi jest ona dłuższa niż wzdłuż drugiej, wyjaśnia Todd Thompson, dziekan Wydziału Astronomii na Ohio State University. Najprostszym wyjaśnieniem jest w tym przypadku istnienie czarnej dziury i jest tutaj najbardziej prawdopodobnym. « powrót do artykułu
  12. Kiedyś znajoma w pracy zrobiła krótki wykład o AI (2h). Sam nie jestem ekspertem w tej dziedzinie, to były podstawy podstaw, ale byłem pod wrażeniem ile można zdziałać stosunkowo prostą matematyką w klasyfikacji obiektów.
  13. Tak chyba jest. Wiem, że nurkowie potrzebują innych mieszanek do nurkowania na większych głębokościach z powodu narkozy azotowej i zatrucia tlenem. Do mieszanek są dodawane gazy szlachetne. Ale wygląda, że jest to powiązane z ilością tlenu i ciśnieniem. Pamiętam, że podczas programu Apollo, przynajmniej tak było na początku podczas testów, zanim doszło do wypadku oddychali tlenem. Obecnie w przestrzeni kosmicznej oraz podczas startów, astronauci oddychają czystym(?) tlenem, co pozwala obniżyć ciśnienie w kombinezonie, a co idzie zmniejszyć wagę i wymogi wytrzymałościowe oraz wycieki, bo wszystko cieknie i cieknie tym bardziej im wyższe ciśnienie, szczególnie kombinezony do spacerów w kosmosie. Doczytałem trochę i ISS ma skład powietrza zbliżony do atmosferycznego, ale Skylab miał powietrze o składzie 75% tlen i 25% azot. Ale tlen na Marsie będzie potrzebny także jako utleniacz do paliwa rakietowego. Wydaje mi się, że ewentualna misja będzie przebiegać w ten sposób, że kilkanaście - kilkadziesiąt rakiet wyniesie stopniowo sprzęt i materiały na orbitę Marsa, które będą do dyspozycji przyszłej misji załogowej. Część być może wyląduje na powierzchni, gdzie zacznie działać automatyka. Zanim rozpocznie się lot załogowy, musi też być działająca produkcja tlenu na powierzchni, być może z już pełnymi zbiornikami tlenu, bo urządzenie MOXIE działa na kameralną skalę. Będzie mu siało zostać przeskalowane odpowiednio. Edit: Jajcenty jest na wątku, może coś dopisze o nurkowaniu
  14. W 2010 roku podczas budowy metra w Salonikach odkopano trójnawową bazylikę. Teraz archeolodzy dokonali w niej wyjątkowego odkrycia – znaleźli grób gockiego wojownika pochowanego wraz bronią. To jedyne takie odkrycie nie tylko w Salonikach, ale i na terenie całej greckiej Macedonii. We wczesnochrześcijańskiej bazylice znaleziono wiele grobów. Jeden z nich, datowany na podstawie ceramiki i innych przedmiotów, pochodzi z początku V wieku. Znajduje się w nim szkielet mężczyzny i pozostałości broni, z której najlepiej zachował się miecz. Obok spoczywają resztki sztyletu i umbo (elementu tarczy). Jak mówi archeolog Melina Paisidou, tym, co zdradza tożsamość wojownika jest fakt, iż po jego śmierci miecz "został celowo wygięty, ale nie złamany". Szczególnie interesujący jest fakt, że podczas wykopalisk z 2010 roku odkryto część wielkiego cmentarza. Z czasem okazało się, że znajduje się tam około 3000 pochówków różnego typu, które powstawały od okresu hellenistycznego do końca starożytności. Wspomnianą na wstępie bazylikę zbudowano tak, by obejmowała ona część grobów. To zaś wskazuje, że pochowani tam ludzie byli ważni dla chrześcijan. Obejmowała ona też grób wojownika, a fakt, iż został on pochowany z bronią również miał go wyróżnić. Wszystko wskazuje na to, że mamy tu do czynienia z Gotem. Bizantyjscy cesarze wynajmowali gockich wojowników, a o pochodzeniu etnicznym pochówku świadczy zarówno typ broni, jak i fakt jej wygięcia po śmierci. Dotychczas tego typu znaleziska były znane z Europy Zachodniej. « powrót do artykułu
  15. Leczenie wielu schorzeń neurologicznych i psychicznych, jak: depresja, padaczka, stwardnienie rozsiane czy objawy psychotyczne nie byłoby możliwe bez postępów w badaniach środków farmakologicznych, które są lub mogą być wykorzystywane w chorobach układu nerwowego. Od ponad stu lat naukowcy stosują coraz bardziej innowacyjne metody służące wynalezieniu skutecznych leków. Współczesne badania mogą umożliwić stworzenie nowych substancji, które będą wykazywały się zadowalającą skutecznością w terapii tych schorzeń. Eksperci o tajnikach psychofarmakologii Dziedzinami farmakologii skoncentrowanymi na prowadzeniu takich badań są psychofarmakologia i neurofarmakologia. Celem prac naukowców zajmujących się tymi dziedzinami jest również poszukiwanie podłoża patofizjologicznego chorób oraz nowych i obiecujących punktów uchwytu dla leków. Znaczącym obszarem zainteresowań, w szczególności psychofarmakologii, jest także badanie własności wszelkich środków o działaniu psychoaktywnym, w tym szerokiego wachlarza substancji uzależniających. Tajniki neuro- i psychofarmakologii przybliżają dr hab. Janusz Szyndler z Katedry i Zakładu Farmakologii Doświadczalnej i Klinicznej WUM; dr Natalia Chmielewska z Zakładu Neurochemii, Instytutu Psychiatrii i Neurologii w Warszawie oraz Katedry i Zakładu Farmakologii Doświadczalnej i Klinicznej WUM i dr hab. Adam Hamed z Pracowni Pamięci Przestrzennej, Instytutu Biologii Doświadczalnej im. M. Nenckiego PAN. Klucz do nowoczesnych terapii Współcześnie neurofarmakologia oraz psychofarmakologia ściśle współpracują z innymi dziedzinami medycyny, takimi jak: fizjologia, genetyka, immunologia, neurologia i psychiatria, w celu określenia dokładnego podłoża chorób układu nerwowego, ale też w celu stworzenia skutecznych metod terapii. Najnowocześniejsze substancje są owocem takiej interdyscyplinarnej współpracy. Jako przykład można przytoczyć nowe terapie stosowane w leczeniu rdzeniowego zaniku mięśni, stwardnienia rozsianego czy w zaburzeniach nastroju. Niemniej ciągle istnieje wiele obszarów wymagających ogromnego nakładu pracy. Od litu do pierwszych leków przeciwpadaczkowych Zidentyfikowanie na przełomie XIX i XX wieku przez Charlesa Sherringtona i Ramóna y Cajala synaps i receptorów jako miejsc działania neuroprzekaźników, było przełomowym wydarzeniem rozpoczynającym okres odkryć w psycho- i neurofarmakologii, chociaż na leki, które mogły być stosowane w powszechnej praktyce przyszło jeszcze czekać pół wieku. W roku 1920 po raz pierwszy w piśmiennictwie, w tytule publikacji farmakologa Davida Machta pracującego na Uniwersytecie Hopkinsa, pojawił się termin „psychofarmakologia”. Epokę nowoczesnej psychofarmakologii rozpoczęło zastosowanie litu do leczenia manii przez Johna F.J. Cade’a w 1949 r. Niewiele później, bo w roku 1952, pojawiła się chloropromazyna, która była pierwszym skutecznym lekiem hamującym objawy psychotyczne. Pod koniec lat 50. w leczeniu depresji rozpoczęto stosowanie imipraminy. Ze strony neurologicznej pierwsze leki przeciwpadaczkowe, takie jak fenytoina, której stosowanie w leczeniu padaczki rozpoczęto już w 1936 r., również stanowiły ogromne osiągnięcie. Warto zauważyć, że o ile pierwsze leki przeciwpsychotyczne zostały zastąpione przez nowsze pochodne, to fenytoina nadal stanowi ważny lek stosowany w leczeniu padaczki. „Dekada mózgu” i leki działające molekularnie Kolejnym istotnym okresem w rozwoju obu dziedzin farmakologii były lata 90. Ogłoszenie przez George’a W. Busha „dekady mózgu” spowodowało rozpoczęcie epoki psychoneurofarmakologii molekularnej. Postęp w technikach genetycznych umożliwił badania nad lekami działającymi molekularnie, w tym nad terapią genową, która stanowi pomost pomiędzy zdobyczami farmakologii i genetyki. Obecnie badania w neuro- i psychofarmakologii koncentrują się na wykorzystaniu zaawansowanych technik molekularnych, rozwoju medycyny personalizowanej, jak również badaniu substancji, których mechanizmy działania związane są z wpływem na ekspresję genów. Techniki genetyczne i narzędzia biologii molekularnej stopniowo wypierają z badań neuro- i psychofarmakologicznych metody klasyczne, chociaż jak dotąd nie wiąże się to z radykalnymi zmianami w efektywności leczenia chorób neurologicznych. Badania eksperymentalne W badaniach psycho- i neurofarmakologii eksperymentalnej w szerokim zakresie wykorzystuje się modele zwierzęce. Mimo iż krytykowane ze względu na nie dość dokładne odwzorowanie patologii stwierdzanych u ludzi, wydają się być podstawowym narzędziem badawczym, zwłaszcza na wstępnym etapie badań. Wiadomo także, że postęp w wielu dyscyplinach medycznych był możliwy jedynie ze względu na wykorzystanie do tego celu modeli zwierzęcych. Co więcej, niemal wszystkie badania w dziedzinie fizjologii i medycyny uhonorowane Nagrodą Nobla wykorzystywały modele zwierzęce, co dodatkowo potwierdza ich niebagatelne znaczenie. Należy równocześnie podkreślić, że wykorzystywanie zwierząt do badań zawsze podlega weryfikacji przez komisję bioetyczną, a wysoka jakość opieki nad zwierzętami zapewnia powtarzalność i wysoką wartość uzyskiwanych wyników. Innowacyjne techniki szansą na nowoczesne i skuteczne leki Klasyczne podejście do badań neuropsychofarmakologicznych w ostatniej dekadzie zostało skorygowane poprzez wprowadzanie nowych technik m.in. opto- oraz chemogenetycznych. Współczesne badania farmakologiczne obejmują zagadnienia neuronauk wraz ze szczegółową nieinwazyjną analizą behawioralną modulowaną selektywnie poprzez hamowanie bądź aktywację konkretnych obwodów neuronalnych. Dzięki metodom chemogenetycznym jesteśmy w stanie czasowo aktywować oraz hamować wybrane obwody neuronalne z niespotykaną do tej pory precyzją. Kolejną innowacyjną metodą ostatniej dekady jest optogenetyka, która może być narzędziem stosowanym w badaniach psycho- i neurofarmakologicznych. Metoda ta pozwala na wprowadzenie do neuronów w wybranej strukturze mózgu genów kodujących światłoczułe białka. Dzięki temu zabiegowi światłoczułe receptory umiejscawiane są w wybranej populacji neuronalnej. Technika ta otwiera ogromne możliwości dla badań psycho-neurofarmakologicznych, neurofizjologicznych oraz behawioralnych. Dotychczas udało się uzyskać wiele nowych danych dotyczących dysfunkcji struktur neuronalnych odpowiadających za uzależnienia, lęk czy pamięć. Badacze mają nadzieję, że dane te pozwolą na stworzenie nowych substancji, które będą wykazywały się zadowalającą skutecznością w terapii tych trudnych do leczenia schorzeń. Epigenetyka kolejnym kamieniem milowym W ostatnich latach bardzo duże zainteresowanie budzą zagadnienia związane z epigenetyką, której mechanizmy, jak się wydaje, mają niebagatelny udział w patogenezie chorób psychicznych i neurologicznych. Obecnie uważa się, że interwencje farmakologiczne wpływające na mechanizmy epigenetyczne mogą zmienić sposób leczenia padaczki, depresji czy PTSD. Wielu autorów skłania się do opinii, że epigenetyka stanowi kolejny kamień milowy w rozwoju terapii chorób neurologicznych i psychicznych. Coraz więcej danych wskazuje, że analiza mechanizmów epigenetycznych w chorobach to nie tylko perspektywa wyjaśnienia podłoża wielu schorzeń, zwłaszcza psychicznych, ale także możliwość interwencji na wczesnym etapie chorób, w podłożu których istotną rolę odgrywają czynniki genetyczne. « powrót do artykułu
  16. Czy oddychanie czystym tlenem, nawet pod obniżonym ciśnieniem, jest bezpieczne na dłuższą metę? Czy aby nie jest konieczna jednak mieszanka tlen-azot?
  17. Yesterday
  18. Łazik Perseverance dokonał kolejnego ważnego kroku w kierunku załogowej eksploracji Marsa. Znajdujący się na nim instrument MOXIE (Mars Oxygen In-Situ Resource Utilization Experiment) wykorzystał bogatą w węgiel atmosferę Marsa do wytworzenia tlenu. Udany eksperyment przeprowadzono przed dwoma dniami, 20 kwietnia. Bez możliwości produkcji i przechowywania tleny na Marsie trudno będzie myśleć o załogowej misji na Czerwoną Planetę. To krytyczny krok w kierunku zamiany dwutlenku węgla na tlen na Marsie. MOXIE ma jeszcze sporo do roboty, ale uzyskane właśnie wyniki są niezwykle obiecujące, gdyż pewnego dnia chcemy wysłać ludzi na Marsa. Tlen to nie tylko coś, czym oddychamy. Napędy rakietowe zależą od tlenu, a przyszłe misje załogowe będą uzależnione od produkcji na Marsie paliwa, które pozwoli astronautom wrócić do domu, mówi Jim Reuter dyrektor w Space Technology Mission Directorate (STMD). Inżynierowie obliczają, że do przywiezienia 4 astronautów z Marsa na Ziemię rakieta będzie potrzebowała 7 ton paliwa i 25 ton tlenu. To znacznie więcej, niż potrzeba ludziom do oddychania. Ci sami astronauci podczas rocznego pobytu na Marsie zużyją może 1 tonę tlenu, mówi Michael Hecht z Massachusetts Institute of Technology. Przewożenie 25 ton tlenu z Ziemi na Marsa byłoby bardzo trudnym i kosztownym przedsięwzięciem. Znacznie łatwiej będzie przetransportować większą wersję MOXIE, 1-tonowe urządzenie, które na miejscu wyprodukuje tlen potrzebny do powrotu. Atmosfera Marsa w 96% składa się z dwutlenku węgla. MOXIE oddziela atomy tlenu od molekuł dwutlenku węgla, uwalniając do atmosfery Marsa tlenek węgla. Konwersja odbywa się w temperaturze około 800 stopni Celsjusza, dlatego MOXIE jest zbudowany ze specjalnych materiałów, w tym wydrukowanych w 3D stopów aluminium, w których odbywa się ogrzewanie i chłodzenie gazów oraz aerożelu działającego jak izolacja. Z zewnątrz MOXIE pokryte jest cienką warstwą złota, które zatrzymuje promieniowanie podczerwone wewnątrz urządzenia, chroniąc w ten sposób inne elementy łazika Perseverance. Podczas pierwszego testu MOXIE wytworzył około 5 gramów tlenu, co wystarczyłoby człowiekowi na około 10 minut oddychania. Urządzenie jest w stanie wytworzyć do 10 gramów tlenu na godzinę. Przeprowadzony właśnie test miał pokazać, czy urządzenie bez szwanku przetrwało start, podróż i lądowanie na Marsie. NASA chce jeszcze co najmniej 9-krotnie prowadzić testy MOXIE. To nie jest po prostu pierwsze urządzenie, które wyprodukowało tlen na innej planecie. To pierwsza technologia tego typu, która ma wspomóc przyszłe misje wykorzystując lokalnie występujące zasoby, stwierdza Trudy Kortes odpowiedzialna w STMD za demonstracje technologii. « powrót do artykułu
  19. Od tego miażdżenia można się nabawić płaskostopia na stare lata, a i zdarzyć się może, że człowiek w tej złości nadepnie na klocek LEGO Nie potwierdzają tego moje obserwacje, inaczej by nie zamykano miejsc publicznych. Aczkolwiek na początku, przynajmniej media, ściemniały odnośnie skuteczności masek - "wystarczy myć ręce". Wydaje mi się, że media zawiodły i wynika to głównie z niewiedzy, ale fakt, że był konflikt interesu, bo PPE brakowało dla personelu medycznego. Ah, ta mądrość narodu. Gdzie byśmy byli gdyby nauka wsłuchiwała się uważnie w mądrość narodu, szczególnie tak roztropnego jak naród polski? Najlepsza jest podobno matczyna intuicja, bo matki najlepiej wiedzą, co jest dobre dla ich dzieci Dranie na pewno zasłonią się klauzulą sumienia albo jakim inszym "wykonywaniem rozkazów big farmy". Jako, że siedzę w IT, czasami spotykam się z opinią, że programistów należy karać bezwzględnym więżeniem za błędy w oprogramowaniu. Niektórzy użytkownicy, najpewniej w przypływie złości, potrafią napisać w komentarzach, że na drzewach zamiast liści będą wisieć programiści Od razu się robi cieplej na sercu
  20. Dzisiaj odbył się drugi lot https://www.space.com/mars-helicopter-ingenuity-second-flight
  21. To trochę nadużycie pojęcia algorytm. Cały algorytm to: tanh(sum(wi*xi)). W skrócie, ten sam 'algorytm' odróżnia jabłko od truskawki od pryszcza od raka. Zwykle różne algorytmy rozwiązują różne zadania.AI rozwiązuje różne zadania jednym (mniej więjcej) algorytmem. Ale zgadzam się, ciągle jeszcze z AI nie pogadasz o życiu i śmierci, a rano nie zrobi jajecznicy.
  22. Pod Olsztynem znaleziono świetnie zachowany średniowieczny miecz takiego typu, jaki był używany podczas bitwy pod Grunwaldem. Sensacyjne znalezisko, jakie zdarza się raz na kilkadziesiąt lat, składa się z miecza, pochwy, pasa i dwóch noży. Zabytki pochodzą z przełomu XIV i XV wieku, niewykluczone zatem, że ich właściciel rzeczywiście brał udział w bitwie pod Grunwaldem. Miecz i towarzyszące mu przedmioty znalazł miłośnik archeologii Aleksander Miedwiediew. Znalezione artefakty trafią do Muzeum Bitwy pod Grunwaldem. Zestaw orężny zostanie teraz poddany czynnościom konserwacyjnym i badawczym. Mamy pewne podejrzenia, co do statusu społecznego średniowiecznego właściciela miecza i jesteśmy ciekawi, co kryje się pod warstwą rdzy. Głębiej zbadamy również samo miejsce wydobycia zabytku, by poznać kontekst sytuacyjny jego pochodzenia. Tak drogocenne przedmioty w średniowieczu rzadko kiedy zostawały w ziemi, mówi dyrektor Muzeum, Szymon Drej. Miecze i towarzyszące im wyposażenie były czymś naprawdę cennym, zatem wątpliwe, by właściciel dobrowolnie je porzucił. To nieodłączna część naszego regionalnego dziedzictwa. Jak wiemy, działania militarne bitwy pod Grunwaldem wykraczają przecież poza teren pól pod Stębarkiem i poza połowę lipca 1410 roku, dlatego znalezisko pobudza wyobraźnię. Atrakcyjnością stanu zachowania automatycznie przenosi w czasy grunwaldzkiego rycerstwa – stwierdził marszałek województwa warmińsko-mazurskiego Gustaw Marek Brzezin, na którego ręce znalazca przekazał bezcenne przedmioty. Na szczególne wyrazy uznania zasługuje postawa darczyńcy, który sprawił, że tak unikatowe zabytki będą mogły przemówić do wyobraźni szerokiego grona odbiorców, dodał. « powrót do artykułu
  23. Studenci Akademii Górniczo-Hutniczej (AGH) pracują nad udoskonaleniem modeli łyżek ortodontycznych i wkładek donosowych (stentów), stosowanych w opiece okołooperacyjnej dzieci z rozszczepem wargi i podniebienia. Odbywa się to we współpracy z ekspertami z Uniwersyteckiego Szpitala Dziecięcego w Krakowie i studentami z Collegium Medicum Uniwersytetu Jagiellońskiego. Dzięki temu projektowi mają powstać modele lepiej dostosowane do potrzeb małych pacjentów. Jak podkreślają specjaliści, plastykę wargi przeprowadza się już u 12-tygodniowych dzieci. Niekiedy po takiej operacji zakłada się specjalistyczne wkładki, które wspomagają poprawne formowanie kształtu nosa. Przed operacją rozszczepu podniebienia za pomocą łyżki ortodontycznej wykonuje się wycisk podniebienia pacjenta. Niestety, na rynku brakuje asortymentu dostosowanego do anatomii tak małych dzieci. Początki projektu Jakiś czas temu do studentów AGH zgłosiła się studentka Collegium Medicum Uniwersytetu Jagiellońskiego Katarzyna Ciuk. Zapytała, czy mogliby pomóc w zaprojektowaniu łyżek ortodontycznych. Ciuk tłumaczyła, że rozszczep wargi i podniebienia jest częstą wadą wrodzoną. Aby zapewnić dzieciom funkcjonalność oraz poprawić walory estetyczne, konieczna jest operacja. W celu zmniejszenia rozszczepu podniebienia zakłada się [...] płytkę, która ma je uformować przed operacją. Wykonanie takiej płytki wymaga wykonania wycisku podniebienia za pomocą łyżki ortodontycznej, a następnie gipsowego odlewu. Dostępne na rynku łyżki do wycisków nie spełniają jednak, niestety, wymagań rozmiarowych dla tak małych dzieci. Zespół z Kół Naukowych AGH Rapid Prototyping i AGH Medical Technology zabrał się więc za zaprojektowanie i wykonanie prototypów elementów spełniających wymagania grupy docelowej. Główne wyzwania Z czym musi się zmierzyć zespół Jakuba Bryły, Marcina Chruścińskiego oraz Michała Kryski? Głównymi wyzwaniami są:  wykonanie komponentów z odpowiednią precyzją przy ich niewielkich rozmiarach, a także dobór technologii wytwarzania oraz materiału z certyfikatem użycia medycznego. W połowie kwietnia zespołowi medycznemu przekazano testowy zestaw łyżek ortodontycznych. Jak podkreślono w komunikacie prasowym AGH, elementy zostały wykonane na drukarkach 3D ze specjalistycznego polimeru. Łącznie zaprojektowano i wykonano cztery modele łyżek, każdy w trzech rozmiarach: S, M i L. Kolejne etapy W przypadku wkładek podstawowym celem jest modyfikacja geometrii; wspomina się o dodatkowych systemach utrzymujących element w jednej pozycji. Obecnie trwają prace nad stworzeniem finalnego modelu. Odnosząc się do metody wytwarzania, lider zespołu Jakub Bryła, wyjaśnia: Mamy do wyboru kilka rodzajów technologii druku 3D, rozpoczynając od najbardziej rozpowszechnionych, przez metody druku z żywic światłoutwardzalnych oraz proszków polimerowych. Rozważamy również standardowe techniki, jak odlewanie z użyciem form silikonowych – jednak również i w tym przypadku planujemy wykorzystać metody przyrostowe do wykonania wzorca. Najważniejszym jest, aby finalny produkt spełniał ściśle określone wymagania projektowe – zarówno pod względem geometrii, jak i sztywności. W pierwszych testach planujemy wspomóc się wykonanym modelem nosa dziecka na podstawie plików DICOM z tomografii komputerowej. Zespół dodaje, że choć chodzi, oczywiście, o to, by pomóc małym pacjentom i lekarzom, ważny jest także inny aspekt projektu: zbadanie możliwości, wad i zalet poszczególnych technologii wytwarzania przyrostowego pod kątem produkcji komponentów przeznaczonych do zastosowań medycznych. « powrót do artykułu
  24. Słonie mogłyby występować na ponad 60% obszaru Afryki, a zajmują jedynie 17% zdatnego dla nich terenu. Przyjrzeliśmy się każdemu kilometrowi kwadratowemu kontynentu. Stwierdziliśmy, że na 62% z przeanalizowanych 29,2 miliona kilometrów występuje odpowiedni dla słoni habitat, mówi główny autor badań, Jake Wall z kenijskiego Mara Elephant Project. Słonie występują jednak na niewielkiej części tego obszaru. To jednocześnie zła i dobra wiadomość. Zdaniem badaczy, afrykańskie słonie mogłyby występować na 18 milionów kilometrów kwadratowych, w tym w wielu miejcach, gdzie ich koegzystencja z ludźmi byłaby bezkonfliktowa. Nie od dzisiaj jest jasne, że zasięg występowania słoni – podobnie jak wielu innych gatunków na Czarnym Lądzie – gwałtownie się kurczy. Przyczynami takiego stanu rzeczy są kłusownictwo, utrata habitatów i rozrastająca się populacja ludzka. Wall i jego zespół chcieli lepiej zrozumieć, jak słonie wykorzystują przestrzeń i co powoduje, że zajmują te a nie inne tereny. Naukowcy przeanalizowali dane dotyczące każdego kilometra kwadratowego Afryki, sprawdzając, gdzie występują warunki, na których słonie byłyby w stanie żyć. Wykorzystali też dane z nadajników GPS, które przez 15 lat były zbierane od 229 słoni. Przyjrzeli się szacie roślinnej, pokrywie drzewnej, temperaturom powierzchni, opadom, dostępności wody, nachyleniu terenu, obecności ludzi oraz obecności terenów chronionych na obszarach, przez które przemieszczały się śledzone słonie. Dzięki temu byli w stanie określić, jakie rodzaju habitatu słonie wybierają i jakie są ekstremalne warunki, które są w stanie tolerować. Naukowcy odkryli, że w Republice Środkowoafrykańskiej oraz Demokratycznej Republice Kongo istnieją olbrzymie tereny potencjalnie wiąż nadające się do zamieszkania przez słonie. Jeszcze niedawno żyły tam setki tysięcy tych zwierząt. Obecnie pozostało 5–10 tysięcy. Uczeni określili też główne obszary, na które słonie się nie zapuszczają. Największe tereny, których unikają, to pustynie Sahara, Kalahari, Danakil oraz miasta i wysokie góry. To pokazuje nam, gdzie mogły znajdować się historyczne zasięgi słoni. Jednak pomiędzy końcem okresu rzymskiego a przybyciem europejskich kolonizatorów brak jest informacji nt. statusu afrykańskich słoni, mówi Iain Douglas-Hamilton, założyciel organizacji Save the Elephants. Badania wykazały, że słonie żyjące na terenach chronionych zajmują zwykle mniejsze terytorium. Uczeni przypuszczają, że zwierzęta wiedzą, iż wychodzenie poza teren chroniony jest niebezpieczne. Jednocześnie około 57% obecnego zasięgu słoni znajduje się poza obszarami chronionymi. Dlaczego jednak słonie zajmują znacznie mniejszy teren niż zdatny do zamieszkania? Dzieje się tak ze względu na presję ze strony człowieka. Zarówno z powodu kłusownictwa jak i zajmowania ich terenów przez ludzi, którzy nie mają zamiaru koegzystować ze słoniami. Kluczowym dla przetrwania słoni będzie ochrona ich habitatów, zwalczenie kłusownictwa oraz przekonanie ludzi, że mogą żyć obok tych wielkich zwierząt. Słonie to wielcy roślinożercy. Obszar ich występowania może się zmniejszyć, ale jeśli damy im szansę mogą znowu zająć tereny, na których niegdyś występowały, mówi Wall. Niestety, obecne trendy szansy takiej nie dają. Fragmentacja habitatu jest tak wielka, że jedynie 7% dzikich terenów ma obszar większy niż 100 km2. Bardzo pilnie musimy uwzględnić potrzeby zwierząt, które potrzebują dużych, wolnych od wpływu człowieka habitatów, dodają uczeni. « powrót do artykułu
  25. Wyszperałem zrzut z marca 2020 z listą leków, jakie były analizowane i testowane pod kątem covid19. Tak, jak napisałem, testowali leki dostępne na rynku praktycznie od samego początku. Równolegle inne firmy jak Moderna, która się specjalizuje w szczepionkach mRNA, pracowały nad szczepionkami. Amantadyny nie ma na liście, być może dlatego, że nie wykazywała działania antywirusowego przeciwko wymienionym wirusom. A być może to faktycznie spisek Jedyne, co udało mi się znaleźć, to badanie gdzie lek nie był skuteczny przeciwko testowanemu wirusowi grypy z tego, co rozumiem (no inhibition of cytopathic effect), ale mogę się mylić. Jest to jednak zbieżne z informacją na wiki o uodpornieniu wirusa grypy. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3323075/ Lista leków z marca 2020:
  26. Po raz pierwszy naukowcy udowodnili, że Pine Island Glacier w Zachodniej Antarktydzie może przekroczyć punkt, poza którym zacznie gwałtownie i nieodwracalnie tracić masę, co będzie miało znaczące konsekwencje dla globalnego poziomu oceanów. Pine Island Glacier to wielki strumień lodowy o powierzchni 175 000 km2 i grubości około 2 kilometrów. Jest to też region najszybszej utraty lodu w Antarktyce. Obecnie Pine Island Glacier wraz z sąsiadującym z nim Thwaites Glacier jest odpowiedzialny za 10% wzrostu poziomu oceanów na całym świecie. Naukowcy już od pewnego czasu ostrzegają, że ten region Antarktyki jest blisko punktu zwrotnego, poza którym dojdzie do nieodwracalnego rozpadu lodu, co w konsekwencji może doprowadzić do rozpadu całej Zachodniej Antarktydy, która zawiera wystarczająco dużo lodu, by doprowadzić do wzrostu poziomu oceanów o ponad trzy metry. Jednak o ile samo stwierdzenie, że istnieje punkt, poza którym lodowiec może się rozpaść to jedno, a wyznaczenie tego punktu dla Pine Island Glacier to zupełnie coś innego. Naukowcy z Northumbria Univeristy wykorzystali najnowsze modele płynięcia lodu i na ich podstawie stworzyli metodę pozwalającą na wyznaczenie wspomnianego punktu zwrotnego dla każdego z lądolodów. Ich model wykazał, że w przypadku Pine Island Glacier istnieją co najmniej trzy punkty krytyczne. Ostatecznym z nich, wyznaczającym koniec istnienia tego strumienia lodowego jest wzrost temperatury oceanów o 1,2 stopnia Celsjusza. Doprowadzi to do nieodwracalnego wycofywania się. Naukowcy mówią,że długoterminowe ocieplenie oraz trendy obserwowane w Circumpolar Deep Water w połączeniu ze zmieniającymi się wzorcami wiatrów na Morzu Amundsena mogą wystawić Pine Island Glacier na długotrwałe działanie wysokich temperatur, co coraz bardziej zwiększa ryzyko wystąpienia warunków prowadzących do jego nieodwracalnego wycofywania się. Istnieje wiele modeli próbujących przewidywać, jak zmiany klimatu wpłyną na Zachodnią Antarktykę, jednak modele te nie pokazują, czy może zostać przekroczony punkt krytyczny, mówi główny autor badań dr. Sebastian Rosier. Już wcześniej mówiło się, że Pine Island Glacier może wejść w fazę nieodwracalnego wycofywania się. Tutaj po raz pierwszy udało się to dokładnie wykazać i wyliczyć. To bardzo ważny moment dla badań nad dynamiką zmian w tym obszarze świata, dodaje profesor Hilmar Gudmundsson. Uzyskane przez nas wyniki osobiście mnie martwią. Jeśli bowiem dojdzie do takiego wydarzenia, wzrost poziomu światowego oceanu będzie liczony w metrach, a procesu tego nie da się powstrzymać. « powrót do artykułu
  27. Ale patrzysz na to jak na kogoś kto kupuje ten sprzęt za tysiące czy mln $ i ma dylemat jak najlepiej wykorzystać maszynę którą kupił. A tu mamy firmę która je produkuje, i nie robią tego robotnicy, miesiącami wykuwając ze stali. Mają gotowy projekt, matrycę, skalibrowane maszyny. Ile ich fizycznie kosztuje żeby wsadzić zamiast 2 to 200 plastrów krzemu? więc jaki problem za śmieszne pieniądze(koszt krzemu, prądu) zrobić sobie 1000x takich z przeznaczeniem na kopanie, żeby pochwalić się akcjonariuszom wielokrotnie większym zyskiem?
  1. Load more activity
×
×
  • Create New...