-
Liczba zawartości
37636 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
247
Zawartość dodana przez KopalniaWiedzy.pl
-
Głównym powodem wybudowania Wielkiego Zderzacza Hadronów (LHC) były poszukiwania bozonu Higgsa. Urządzenie wywiązało się z tego zadania w 2012 roku i od tej pory poszerza naszą wiedzę o świecie. Teraz naukowcy z eksperymentów CMS i ATLAS w CERN poinformowali o znalezieniu pierwszych dowodów na rzadki rozpad bozonu Higgsa do bozonu Z i fotonu. Jeśli ich spostrzeżenia się potwierdzą, może być to pośrednim dowodem na istnienia cząstek spoza Modelu Standardowego. Model Standardowy przewiduje, że jeśli bozon Higgsa ma masę ok. 125 gigaelektronowoltów – a z ostatnich badań wiemy, że wynosi ona 125,35 GeV – to w około 0,15% przypadków powinien się on rozpadać na bozon Z – elektrycznie obojętny nośnik oddziaływań słabych – oraz foton, nośnik oddziaływań elektromagnetycznych. Niektóre teorie uzupełniające Model Standardowy przewidują inną częstotliwość dla takiego rozpadu. Zatem sprawdzenie, które z nich są prawdziwe, daje nam ważny wgląd zarówno w samą fizykę spoza Modelu Standardowego, jak i na bozon Higgsa. A mowa jest o fizyce poza Modelem Standardowym, gdyż modele przewidują, że bozon Higgsa nie rozpada się bezpośrednio do bozonu Z i fotonu, ale proces ten przebiega za pośrednictwem pojawiających się i znikających cząstek wirtualnych, które trudno jest wykryć. Uczeni z ATLAS i CMS przejrzeli dane z 2. kampanii badawczej LHC z lat 2015–2018 i zdobyli pierwsze dowody na rozpad bozonu Higgsa do bozonu Z i fotonu. Istotność statystyczna odkrycia wynosi sigma 3,4, jest więc mniejsza od sigma 5, kiedy to można mówić o odkryciu. Dlatego też na na razie do uzyskanych wyników należy podchodzić z ostrożnością, wymagają one bowiem weryfikacji. Każda cząstka ma specjalny związek z bozonem Higgsa, zatem poszukiwanie rzadkich dróg rozpadu bozonu Higgsa jest priorytetem. Dzięki drobiazgowemu połączeniu i analizie danych z eksperymentów ATLAS i CMS wykonaliśmy krok w kierunku rozwiązania kolejnej zagadki związanej z bozonem Higgsa, mówi Pamela Ferrari z eksperymentu ATLAS. A Florencia Canelli z CMS dodaje, że podczas trwającej właśnie 3. kampanii badawczej LHC oraz High-Luminosity LHC naukowcy będą w stanie doprecyzować obecnie posiadane dane oraz zarejestrować jeszcze rzadsze rodzaje rozpadów Higgsa. « powrót do artykułu
-
Zegarek ostatniego cesarza Chin sprzedany za ponad 6 mln dolarów
KopalniaWiedzy.pl dodał temat w dziale Humanistyka
W zeszłym tygodniu dom aukcyjny Phillips sprzedał za 6,2 mln dol. platynowy zegarek na rękę marki Patek-Philippe, który należał kiedyś do ostatniego cesarza Chin - Puyi. Uzyskana kwota znacznie przewyższała przedaukcyjne szacunki rzędu 3 mln dol. To jeden z ośmiu znanych zegarków Patek-Philippe Reference 96 Quantieme Lune (część wyprodukowano z platyny, a część ze złota). Puyi zabrał go ze sobą do obozu w Chabarowsku i w 1950 r. podarował na pożegnanie rosyjskiemu tłumaczowi Georgijowi Permiakowowi. Przed aukcją The Imperial Patek Philippe Sale we współpracy ze specjalistami dom aukcyjny Phillips przez 3 lata weryfikował autentyczność i historię zegarka. Jednym z ekspertów był Russell Working, niezależny dziennikarz z okolic Chicago, który w 2001 r. przeprowadził w Chabarowsku wywiad z 83-letnim wówczas Permiakowem. Dziennikarz, wraz z żoną Nonną, zbierał wówczas materiały do artykułu na temat procesu sądowego przeciwko naukowcom, którzy w okupowanych przez Japonię Chinach prowadzili badania nad bronią biologiczną. Permiakow, który biegle znał 6 języków, był tłumaczem na odbywającej się w Chabarowsku rozprawie. W pewnym momencie mężczyzna powiedział coś zupełnie niespodziewanego. Stwierdził, że był również tłumaczem ostatniego cesarza Chin. Ujawnił, że został jego bliskim przyjacielem. Na dowód wyjął z szuflady biurka czerwony papierowy wachlarz z odręcznym napisem po chińsku, notatnik i zegarek. Tłumacz zmarł kilka dni po spotkaniu z dziennikarzem. Jego spadkobiercy sprzedali zegarek i inne przedmioty nieznanemu kupcowi. Ostatecznie wszystkie te rzeczy trafiły do Phillips Auctioneers; natknąwszy się na artykuł o Permiakowie z South China Morning Post, przedstawiciele firmy skontaktowali się z Workingiem. W wypowiedzi dla Stefana Esposito z Chicago Sun-Times Working zaznaczył: Przekazując zegarek, nie dało się nic uzyskać. [Puyi] wiedział, że w najbliższych godzinach opuści ZSRR. Było jasne, że [podarunek] stanowi gest przyjaźni. Aurel Bacs, starszy konsultant w dziale zegarków Phillipsa, ujawnił, że w ramach badań zespół odkrył, że w czasie uwięzienia Puyi poprosił służącego Li Guoxionga (zwanego Wielkim Li), by zeskrobał farbę z tarczy, żeby sprawdzić, czy podobnie jak koperta jest ona wykonana z platyny. Ślady tych działań są nadal widoczne. Ta drobna niedoskonałość stanowi kolejną warstwę historyczną, dlatego odnowienie zegarka byłoby czymś niewłaściwym - uważa Bacs. Podczas 3-letnich analiz ekipa zastanawiała się, czemu ktoś zmodyfikował tarczę. Czy chodziło o utworzenie symboli yin i yang? W rozwiązaniu zagadki pomógł były pracownik muzeum i pisarz, który przeprowadzał wywiady z osobami z najbliższego otoczenia Puyi. W 1982 r. w rozmowie z Wangiem Wenfengiem Guoxiong zdradził, że podczas 5 lat spędzonych w ZSSR Puyi często się nudził. Pewnego dnia poprosił służącego, by usunął farbę z tarczy. Gdy w pewnym momencie zauważył, że wykonano ją z brązu, nie chciał, by poddawać czasomierz dalszym modyfikacjom. Stąd charakterystyczny wzór... Thomas Perazzi, szef działu zegarków w Phillips Asia, powiedział agencji Reutera, że Patek-Philippe Reference 96 Quantieme Lune Puyi to najdrożej sprzedany cesarski zegarek w historii. W 2017 r. należący do Hajle Syllasje I, ostatniego cesarza Etiopii, czasomierz marki Patek-Philippe został sprzedany przez dom aukcyjny Christie's za 2,9 mln dol. Również w 2017 r. wysadzany diamentami Rolex Bảo Đại, ostatniego cesarza Wietnamu, osiągnął zaś na aukcji Phillipsa cenę 5 mln dol. Ostatni cesarz Chin, P'u-i, urodził się w 1906 roku. Na tron wstąpił już w 1908 roku, po śmierci swojego wuja, cesarza Gaungxu. Jego panowanie nie trwało długo. Już 12 lutego 1912 roku został obalony w wyniku nacjonalistycznej rewolucji demokratycznej. Cesarzowi pozwolono mieszkać w pałacu. Wybrał dla siebie imię Henry i od tej pory znany był na Zachodzie jako Henry Puyi. Kilkanaście lat później, w 1924 roku, Henry w tajemnicy opuścił Pekin i przeniósł się do znajdującej się pod kontrolą Japończyków części miasta Tiencin. Japonia była jednym z państw, którym Chiny przekazały kontrolę nad częścią Tiencin. W marcu 1932 roku Henry Puyi został ogłoszony przez Japończyków prezydentem, a w 1934 cesarzem Mandżukuo, marionetkowego państwa utworzonego przez Japonię na okupowanych terytoriach Mandżurii. Po upadku Mandżukuo w 1945 roku cesarz dostał się do radzieckiej niewoli i w 1950 roku został przekazany Chinom, gdzie był sądzony jako zbrodniarz wojenny. Ułaskawiono go w 1959 roku. Podjął pracę w warsztacie naprawczym ogrodu botanicznego, a następnie został badaczem w instytucie literatury i historii. Zmarł w 1967 roku. « powrót do artykułu-
- zegarek
- Patek-Philippe Reference 96 Quantieme Lune
- (i 4 więcej)
-
Trzecia faza badań klinicznych na dzieciach w wieku 1-3 lat pokazała, że 12-miesięczna immunoterapia za pomocą plastra przyklejonego na skórze, bezpiecznie odczula dzieci z reakcją alergiczną na orzechy, zmniejszając tym samym niebezpieczeństwa związane z przypadkową ekspozycją na alergen. Randomizowane badania z wykorzystaniem podwójnej ślepej próby i placebo były prowadzone w kilkudziesięciu ośrodkach uniwersyteckich w USA, Australii, Kanadzie, Wielkiej Brytanii, Francji, Niemczech, Austrii i Irlandii. Pozytywne wyniki badań cieszą tym bardziej, że obecnie nie istnieje żadna zatwierdzona terapia odczulająca dla dzieci poniżej 4. roku życia. Alergia na orzechy występuje u około 2% dzieci w krajach uprzemysłowionych i często utrzymuje się przez całe życie. Osoby z ciężką alergią narażone są na duże niebezpieczeństwo. Zagrożenie dla ich zdrowia i życia może stanowić nawet niewielki kawałek orzecha, który przypadkowo znalazł się w żywności, w której być go nie powinno. Do badań nad plastrami odczulającymi zaangażowano 362 dzieci. U każdego z nich reakcję alergiczną wywoływało mniej niż 300 miligramów orzechów. Dzieci losowo przypisano do dwóch grup, z której jedna była odczulana za pomocą plastra, druga zaś otrzymywała placebo. Grupa z plastrem była 2-krotnie bardziej liczna od grupy placebo. Eksperyment trwał przez 12 miesięcy. W ciągu roku poważne efekty uboczne związane z udziałem w badaniach wystąpiły u 0,4% dzieci z grupy badanej, a u 1,6% dzieci z tej grupy wystąpiła anafilaksja. Tego typu skutków testu nie zaobserwowano u żadnego z dzieci z grupy placebo. Jednocześnie jednak stwierdzono, że reakcja alergiczna na orzechy zmniejszyła się 67% dzieci z grupy badanej oraz u 33,5% dzieci z grupy placebo. Dzieci, które początkowo niekorzystnie reagowały na niewielki kawałek orzecha, po zakończeniu terapii tolerowały od 1 do 4 całych orzechów. To oznacza, że były dobrze chronione przed przypadkową ekspozycją na orzecy. Co ważne, badania pokazały, że terapia niesie ze sobą bardzo małe ryzyko wystąpienia poważnej reakcji alergicznej. To świetna wiadomość dla rodziców dzieci z alergią na orzechy, cieszy się profesor Melanie Makhija z Northwestern University. Badania były finansowane przez producenta plastra, firmę DBV Technologies. Z ich szczegółami można zapoznać się na łamach New England Journal of Medicine. « powrót do artykułu
-
Krewniak kota i nosorożca ma rekordowo dużo chromosomów
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
Łuskowce to niezwykłe zwierzęta. Wyglądają trochę jak skrzyżowanie mrównika afrykańskiego z pancernikiem. Ich najbliższymi krewnymi są m.in. koty i... nosorożce. Łuskowce to słabo poznana, trudna do badania grupą zwierząt. Są zagrożone, głównie przez kłusownictwo. Nic więc dziwnego, że naukowcy usiłują jak najlepiej je poznać, by opracować odpowiednie metody ochrony. Uczeni z Uniwersytetu Kalifornijskiego w Los Angeles (UCLA) donieśli właśnie, że łuskowce są jeszcze bardziej niezwykłe, niż się wydawało. Uczeni odkryli, że łuskowiec białobrzuchy jest ssakiem o drugiej największej liczbie chromosomów. Okazuje się, że samice tego gatunku mają 114 chromosomów. Więcej, bo 118, zidentyfikowano jedynie u palczatka boliwijskiego (Dactylomys boliviensis). U człowieka zaś znajdziemy jedynie 46 chromosomów. To jednak nie jedyne zaskoczenie, jakie czekało na uczonych. Samce łuskowców białobrzuchych mają bowiem... 113 chromosomów, a więc mniej niż samice. Zwykle obie płci w ramach jednego gatunku mają tyle samo chromosomów. Na naszej planecie nie ma żadnych podobnych im stworzeń. Tworzą własny rząd i własną rodzinę, mówi Jen Tinsman z UCLA. Łuskowce trudno jest badać. Bardzo źle znoszą niewolę, jedynie kilka ogrodów zoologicznych na świecie nauczyło się je w niej utrzymywać. W naturze zaś trudno je znaleźć, a technologie monitorowania często zawodzą. Łuskowce potrafią pozbyć się z ciała urządzeń monitorujących, ocierając się o drzewa. Łuskowce kopią w ziemi i za pomocą swoich długich języków polują na mrówki, termity i inne owady. Niektóre gatunki, jak łuskowiec białobrzuchy, żyją na drzewach. Inne zamieszkują nory wykopane w ziemi. Gdy czują się zagrożone, zwijają się w kulę otoczoną twardymi łuskami. Widywano lwy, które – nie wiedząc co zrobić z łuskowcem w pozycji obronnej – toczyły taką kulkę. Łuskowce giną w dużej mierze z powodu przesądów i niewiedzy. W tzw. tradycyjnej medycynie, od Chin po Nigerię, wykorzystuje się ich łuski. Są też zabijane dla mięsa. Na lokalnych rynkach osiągają cenę około 10 USD, w handlu międzynarodowym, tam, gdzie bogaci tzw. smakosze chcą spróbować czegoś nowego, egzotycznego, osiągają cenę ponad 1000 USD. Przemyt łuskowców to równie dobry biznes, co handel bronią, narkotykami czy fałszywymi dowodami tożsamości. Badania genetyczne mają pomóc w uratowaniu tych niezwykłych zagrożonych zwierząt. Zrozumienie ich chromosomów i struktury genetycznej jest ważne dla ich ochrony. Może bowiem wpływać na sposób zarządzania populacją. Jeśli znajdziemy duże różnice genetyczne pomiędzy dwiema grupami, możemy dostosować ochronę do ich potrzeb, mówi profesor Ryan Harrigan. Obecnie zagrożone są wszystkie gatunki łuskowców. « powrót do artykułu-
- łuskowiec
- chromosomy
-
(i 1 więcej)
Oznaczone tagami:
-
Dobrej jakości sprzęty elektroniczne są w stanie każdemu ułatwić funkcjonowanie w dzisiejszym świecie. Mowa tutaj nie tylko o telewizorach, odkurzaczach, sprzętach kuchennych a nawet lodówkach, zamrażarkach czy pralkach i suszarkach - mowa tutaj także o tak niewielkich sprzętach, jak telefony komórkowe. Jak jednak wybrać dla siebie telefon, aby jego funkcje były wystarczające ale jednocześnie aby nie przepłacić? Jakie marki telefonów warte są zainteresowania? I przede wszystkim gdzie można znaleźć telefony dla siebie w dobrej cenie? Jak wybrać odpowiedni telefon dla siebie - na co zwrócić uwagę? Jakie telefony są warte uwagi - na jakie marki warto się zdecydować? 3. Gdzie znajdziesz najciekawsze modele telefonów i nie tylko w dobrej cenie? Jak wybrać odpowiedni telefon dla siebie - na co zwrócić uwagę? Jest kilka kwestii, które powinny zainteresować cię przed zakupem telefonu do użytku osobistego. Przede wszystkim są to oczywiście jego funkcje i możliwości a także ilość miejsca do zapisywania danych. W telefonie, szczególnie w dzisiejszych czasach, powinno zmieścić się dużo treści - zdjęć, filmików a nawet pobranych z internetu aplikacji. Telefon powinien mieć możliwość łatwego łączenia się z siecią, GPS oraz oczywiście wykonywania połączeń oraz wysyłania SMSów a nawet MMSów - słowem wszystkiego. Jakie telefony są warte uwagi - na jakie marki warto się zdecydować? Obecnie na rynku jest naprawdę wiele telefonów od różnych marek, które mogą zainteresować zarówno osobę młodszą, jak i tę starszą. Oprócz tych marek, które notorycznie pojawiają się w filmikach czy w reklamach w internecie czy telewizji, warto też dać szansę telefonom takich marek, jak Xiaomi. Pomimo tego, że cenowo są one znacznie tańsze (co jest oczywiście jedną z ich zalet) niczym nie ustępują telefonom innych, droższych marek, których konsumenci potrafią stać w długich, wielogodzinnych kolejkach. Gdzie znajdziesz najciekawsze modele telefonów i nie tylko w dobrej cenie? Jeżeli szukasz dobre telefony MI (a także inne sprzęty takie, jak hulajnogi, tablety, smart watche czy nawet odkurzacze i oczyszczacze powietrza) to warto sprawdzić co takiego, jest dostępnego w internecie. Wszystkie nowości ze sklepu Xiaomi znajdziesz na stronie https://mi-store.pl/. Znajdziesz tam telefony i inne rzeczy, które będą cię interesowały. Z pewnością będziesz w stanie wybrać dla siebie odpowiedni model, który posłuży ci na co dzień i pozwoli na wykonywanie swojej pracy czy też na kontaktowanie się z bliskimi. « powrót do artykułu
-
Ocean wyrzuca śmieci. Oni je sprzedają i pomagają zwierzętom
KopalniaWiedzy.pl dodał temat w dziale Ciekawostki
W Teksasie na dorocznej aukcji sprzedawano przedmioty wyrzucone przez ocean na plażę. Zebrane pieniądze zostaną przeznaczone na rehabilitację żółwi morskich i ptaków. Wydarzenie zorganizowane przez Mission-Aransas National Estuarine Research Reserve odbyło się w zeszły weekend w parku w Port Aransas. Wśród przeznaczonych na sprzedaż przedmiotów znalazły się, na przykład, pokaźnych rozmiarów syrenka z włókna szklanego, potłuczone kule do kręgli czy pokryte wąsonogami lalki. Sporo z nich znalazło nowych właścicieli. Zebrane fundusze zasilą kasę Amos Rehabilitation Keep (ARK). Badacze z Mission-Aransas i wolontariusze zbierali dziwne przedmioty przez rok, patrolując regularnie plaże wysp barierowych. Podczas pieszych wędrówek zespół monitoruje żółwie morskie i ptaki, a przy okazji napotyka też na liczne śmiecie i przedmioty, które dotarły tu za sprawą Prądu Jukatańskiego (LCN - Loop Current). Jace Tunnell, dyrektor Mission-Aransas Reserve, dokumentuje znaleziska na zdjęciach. Przedstawia je także na vlogu Beach Combing. Tunnell ujawnia, że przeważnie wystawione przedmioty sprzedają się za 5-50 dol. Te, które wydają się cenniejsze, można wylicytować w aukcji na żywo. W zeszłym roku podczas wydarzenia zebrano ok. 3 tys. dol. Choć na razie nie wiadomo, jaki będzie tegoroczny wynik, na Facebooku Mission-Aransas Reserve podano, ile kosztowała wzbudzająca spore zainteresowanie syrenka. Szczęśliwy nabywca zapłacił za nią 300 USD. Rocznie ARK rehabilituje ok. 1500 zwierząt. Ponieważ ośrodek działa przede wszystkim dzięki darowiznom, liczy się każdy cent. Podtrzymujemy tradycję dorocznej aukcji, by zbierać pieniądze na leki, bandaże, jedzenie [...] - podkreślił Tunnell w wypowiedzi dla Houston Chronicle. Aukcję „Tony’s Trash to Treasure” nazwano na cześć założyciela ARK, nieżyjącego już Tony'ego Amosa. W 1982 r. Amos utworzył ARK jako część Instytutu Nauk Morskich Uniwersytetu Teksańskiego. Mission-Aransas National Estuarine Research Reserve powstał w 2006 roku. Chroni on obszar o powierzchni 753 km2, na którym znajdują się watty, trawy morskie, lasy namorzynowe i kolonie ostryg. Na terenie tym zimuje zagrożony żuraw krzykliwy. Rezerwatem zarządza Uniwersytet Teksański. « powrót do artykułu-
- aukcja
- rehabilitacja
- (i 4 więcej)
-
Nagła śmierć łóżeczkowa to przypadek nagłego niewyjaśnionego zgonu zdrowego dziecka przed ukończeniem 12. miesiąca życia. Śmierć najczęściej następuje, gdy dziecko śpi. Do dzisiaj nauka nie znalazła przyczyny tego rzadko występującego zjawiska. Statystyki z różnych krajów pokazują, że zespół nagłej śmierci łóżeczkowej ma miejsce w od 80 do 200 przypadków na 100 000 żywych urodzeń rocznie i pomimo promowania różnych rozwiązań, jak np. bezpieczniejsze środowisko i pozycja snu, odsetek ten utrzymuje się na niezmienionym poziomie od dekad. Grupa amerykańskich naukowców zbadała tkanki przechowywane w Biurze Lekarza Sądowego San Diego związane z przypadkami śmierci niemowląt w latach 2004–2011. Uczeni przeanalizowali tkankę pnia mózgu 70 zmarłych niemowląt, poszukując w niej nieprawidłowości. Okazało się, że u tych dzieci, które zmarły z powodu nagłej śmierci łóżeczkowej, występuje zmieniony receptor serotoniny 5-HT2A/C. Wcześniejsze badania na gryzoniach wykazały, że receptor ten odpowiada za wybudzenie ze snu i automatyczne podjęcie czynności oddechowych, chroniąc w ten sposób mózg przed niedoborami tlenu w czasie snu. Może to wskazywać, że to nieprawidłowość biologiczna stoi za przypadkami nagłej śmierci łóżeczkowej. Zdaniem badaczy, do zgonu może dochodzić, gdy jednocześnie zachodzą trzy czynniki: 1. dziecko ma nieprawidłową budowę receptora, który czyni je podatnym na zaburzenia oddychania w czasie snu; 2. dziecko znajduje się w krytycznym momencie rozwoju układu oddechowego i krążeniowego w pierwszym roku życia; i 3. doświadcza zewnętrznego czynnika stresowego, jak np. spanie z twarzą skierowaną w dół lub spanie z kimś w łóżku. Pomimo tego, że u dzieci, które zmarły na zespół nagłej śmierci łóżeczkowej odkryliśmy nieprawidłową budowę receptora serotoniny 2A/C, nie znamy związku pomiędzy tą nieprawidłowością a przyczyną zgonu, podkreślają naukowcy. A główny autor badań, Robin Haynes, dodaje, że pozostało jeszcze wiele do zrobienia, zanim zrozumiemy konsekwencje nieprawidłowości budowy tego receptora w kontekście większej sieci receptorów serotoninowych i innych oraz ich roli w ochronie funkcji krążeniowych i oddechowych. Obecnie nie istnieją metody identyfikowania dzieci z nieprawidłowościami w układzie serotoninergicznym. Zatem kluczowym elementem ochrony niemowląt jest w tym przypadku bezpieczne środowisko snu. « powrót do artykułu
-
- nagła śmierć łóżeczkowa
- serotonina
-
(i 1 więcej)
Oznaczone tagami:
-
Po badaniach przeprowadzonych na 403 pacjentach z depresją naukowcy z Mass General Brigham zauważyli, że u 55% z tych, którzy otrzymywali dożylnie ketaminę doszło do poprawienia nastroju. Tym samym stwierdzili, że niewielkie dawki ketaminy są równie skuteczne u pacjentów z oporną na leczenie niepsychotyczną depresją, co terapia elektrowstrząsowa. Leczenie elektrowstrząsami jest wciąż stosowane, ale niesie ono ze sobą ryzyko, skutki uboczne i ma złą prasę w opinii publicznej. Terapia elektrowstrząsowa przez ponad 80 lat była złotym standardem leczenia ciężkiej depresji. Jest to jednak również terapia kontrowersyjna, gdyż powoduje utratę pamięci, wymaga znieczulenia i jest stygmatyzowana w społeczeństwie. Przeprowadziliśmy największe badania porównawcze terapii za pomocą ketaminy oraz elektrowstrząsów. Jako jedyni oceniliśmy też utratę pamięci w obu typach leczenia, mówi Amit Anand, profesor psychiatrii z Harvard Medical School i dyrektor Psychiatry Translational Clinical Trials w Mass General Brigham. Zaburzenia depresyjne dotykają dziesiątków milionów ludzi na całym świecie. Terapia elektrowstrząsowa polega na wywołaniu napadu drgawkowego za pomocą prądu elektrycznego przepuszczanego przez mózg. Dochodzi wówczas do uwolnienia neuroprzekaźników, zwiększenia aktywności receptorów czy pobudzenia zaburzonej osi podwzgórze-przysadka. Z kolei ketamina to lek używany głównie w anestezjologii oraz jako środek przeciwbólowy. Już wcześniej pojawiały się wskazówki, że jej niewielkie dawki mogą wywierać korzystny wpływ na osoby z depresją. Naukowcy z Mass General Brigham prowadzili swoje badania w latach 2017–2022. Wzięło w nich udział 403 pacjentów, z których połowa przez trzy tygodnie była leczona elektrowstrząsami aplikowanymi trzy razy w tygodniu, a połowa otrzymywała dwa razy w tygodniu ketaminę. Wpływ terapii na pacjentów badano przez 6 miesięcy po jej zakończeniu. Okazało się, że 55% osób otrzymujących ketaminę i 41% leczonych elektrowstrząsami doświadczyło co najmniej 50-procentowego zmniejszenia objawów depresji oraz poprawy jakości życia. W przypadku terapii elektrowstrząsowej skutkami ubocznymi były utrata pamięci i objawy ze strony układu mięśniowo-szkieletowego. W przypadku ketaminy jedynym skutkiem ubocznym było przejściowe poczucie dysocjacji w trakcie leczenia. Dla rosnącej grupy pacjentów, którzy nie reagują na konwencjonalne leczenie, terapia elektrowstrząsowa pozostaje najlepszym sposobem leczenia. Nasze badania pokazują, że dożylne podawanie ketaminy nie jest gorszą metodą i powinno być rozważone jako alternatywny sposób leczenia, dodaje doktor Murat Altinay z Cleveland Clinic. « powrót do artykułu
-
W 1882 roku niemiecki poeta Detlev von Liliencron rozpoczął wiersz „Trutz, Blanke Hans” słowami Dzisiaj podróżowałem przez Rungholt; miasto, które zatonęło 600 lat temu. Informacje o zaginionym mieście krążyły od wieków i mimo, że większość dokumentów na ten temat pochodzi z XVI wieku, czasów gdy Rungholt dawno zniknęło pod grubą warstwą mułu, uznawano je za prawdziwe, a nie za lokalną legendę. Rungholt było niegdyś miastem portowym we Fryzji Północnej. Zostało zatopione przez powódź sztormową (Grote Mandrenke lub Den Store Manddrukning), która uderzyła w wybrzeże 15-16 stycznia 1362 r. Gwałtowna powódź spowodowana została pojawieniem się cyklonu, który przeszedł przez Wyspy Brytyjskie, Holandię, północne Niemcy i Danię zabijając tysiące osób. Pochłonął też Rungholt, które w tym czasie mogło liczyć nawet 500 domostw i 3000 mieszkańców. Miasto znajdowało się na wyspie Strand, która została zniszczona trzysta lat później podczas innej powodzi. Pozostały z niej niewielkie wysepki i półwysep Nordstrand. Czasem przemieszczające się osady na Morzu Wattowym odsłaniały szczątki, które mogły być pozostałościami Rungholt, ale nie udawało ich się zbadać, gdyż krajobraz ciągle się zmieniał. W ciągu ostatnich tygodni dzięki wykorzystaniu metod geologicznych i archeologicznych udało się zlokalizować dwukilometrowej długości łańcuch średniowiecznych terpów, sztucznych pagórków tworzonych na terenach pozalewowych i poddawanych polderyzacji. Na jednym z nich znaleziono zaś strukturę, która bez wątpienia była imponującym kościołem o wymiarach 40x15 metrów. Jego rozmiary wskazują, że należał do grupy wielkich kościołów Fryzji Północnej. Zdaniem naukowców stanowił on centrum miasta, a jego rozmiary wskazują, że był kościołem parafialnym z pierwszeństwem przed innymi świątyniami w okolicy. Dotychczas naukowcy przeprowadzili badania na obszarze 10 km2. Znaleźli tam 54 terpy, system odwadniający, falochron z bramą prowadzącą do portu oraz dwa mniejsze kościoły. To dowodzi, że mamy do czynienia z ważnym centrum średniowiecznej administracji w hundredzie [to jednostka podziału administracyjnego znajdująca się poniżej hrabstwa – red.] Edomsharde. Naukowcy podkreślają, że kluczem do sukcesu była interdyscyplinarna współpraca. Ukryte pod wattem relikty osady zlokalizowano i zmapowano na dużym obszarze, stosując rozmaite metody geofizyczne, np. gradiometrię magnetyczną czy indukcję elektromagnetyczną – wyjaśnia dr Dennis Wilken z Uniwersytetu w Kilonii. Na podstawie wyników badań prospekcyjnych wybiórczo pobrano rdzenie osadów, które pozwalają nam się wypowiadać nie tylko na temat zależności przestrzennych i czasowych między strukturami osady, ale i na temat rozwoju krajobrazu – dodaje dr Hanna Hadler z Instytutu Geografii z Uniwersytetu Johannesa Gutenberga w Moguncji. Badania nad wyjątkową osadą prowadzone są na wyjątkowym terenie. Morze Wattowe to płytki akwen obejmujący wody terytorialne Danii, Holandii i Niemiec. Znaczną jego część stanowią watty, wielkie równiny odsłaniane podczas odpływu. Ze względu na unikatowe walory przyrodnicze cały obszar Morza Wattowego jest objęty ochroną, a od 2009 roku jest on wpisany na listę światowego dziedzictwa UNESCO. « powrót do artykułu
- 1 odpowiedź
-
- Rungholt
- zaginione miasto
-
(i 1 więcej)
Oznaczone tagami:
-
W przewodzie pokarmowym człowieka żyją tryliony mikroorganizmów, nazwanych zbiorczo mikrobiomem jelitowym. W jego skład wchodzą między innymi bakterie, wirusy, grzyby oraz organizmy eukariotyczne. Te mikroorganizmy stanowią ponad 50% wszystkich komórek organizmu ludzkiego, a ich łączna waga u osoby dorosłej wynosi około 2 kilogramów. Kwaśne środowisko, obecność żółci i soku trzustkowego, a także silna perystaltyka ograniczają możliwości kolonizacyjne w obrębie żołądka i jelita cienkiego, dlatego w tych fragmentach przewodu pokarmowego obecność mikroorganizmów jest stosunkowo niewielka. Większość żyje w okrężnicy, gdzie znajdują się najlepsze warunki do ich bytowania1. Mikrobiom zdominowany jest głównie przez 2 typy bakterii: Bacteroidetes i Firmicutes, stanowiących ok. 90% jego składu całkowitego5. Wiedza na temat mikrobiomu jelitowego znacząco wzrosła w ciągu ostatnich lat. Liczne badania naukowe wykazały, że odgrywa on istotną rolę w prawidłowym funkcjonowaniu całego organizmu. Ma ogromne znaczenie w utrzymaniu metabolizmu, odporności i odżywienia ciała, a także w zapewnieniu odpowiedniej fizjologii oraz ochrony przed chorobami. Oddziałuje bezpośrednio na błonę śluzową jelit, a ponadto ma zdolność do wytwarzania mediatorów chemicznych, dostających się do krwi. Dzięki temu możliwa jest komunikacja pomiędzy mikrobiomem jelitowym, a innymi, oddalonymi od jelit narządami, takimi jak serce, wątroba czy mózg1. Symbioza zachodząca pomiędzy gospodarzem, a mikrobiomem przynosi korzyści dla obydwu stron. Dzięki gospodarzowi mikrobiom ma zapewnione odpowiednie siedlisko oraz dostarczone substancje odżywcze potrzebne do funkcjonowania. Jednocześnie mikroorganizmy jelitowe syntetyzują krótkołańcuchowe kwasy tłuszczowe oraz witaminy, niezbędne do dojrzewania układu odpornościowego błony śluzowej jelit oraz do utrzymania prawidłowego metabolizmu w organizmie gospodarza. Mikrobiom komensalny reguluje system odpornościowy w błonie śluzowej jelita, natomiast mikrobiom patogenny wywołuje dysfunkcję układu immunologicznego i w konsekwencji prowadzi do rozwoju choroby. Brak zachowania równowagi pomiędzy mikroorganizmami komensalnymi, a patogennymi prowadzi do stanu dysbiozy2. Ludzki mikrobiom jelitowy kształtuje się już podczas życia płodowego, co udowodniono, wykazując obecność mikroorganizmów w smółce noworodka niemowlaka. Pomimo to, większość z drobnoustrojów kolonizujących ludzkie jelita nabywanych jest po urodzeniu. Zauważono występowanie różnic w składzie pomiędzy mikrobiomem wcześniaków, a noworodków urodzonych w prawidłowym terminie. Może to narażać niemowlęta urodzone przedwcześnie na groźne infekcje żołądkowo - jelitowe, dlatego też ważna jest u nich odpowiednia suplementacja probiotykami. Różnice można zauważyć również w składzie mikroorganizmów mikrobiomu w zależności od sposobu porodu. Noworodki urodzone w wyniku porodu siłami natury wykazują większą ilość bakterii z rodzaju Bacteroidetes niż Firmicutes, jeśli porównamy je z mikrobiomem noworodków urodzonych poprzez cesarskie cięcie. Na skład mikrobiomu ogromny wpływ ma także to, czy niemowlę jest karmione piersią czy przy użyciu gotowych mieszanek. Bardziej optymalne dla mikrobiomu jelitowego okazuje się karmienie piersią. Mleko matki zawiera około 600 różnych gatunków bakterii, a badania wykazały, iż niemowlęta nim karmione mają mikrobiom bogatszy o geny związane z mechanizmami obronnymi i odpornościowymi organizmu. Największe zmiany kształtujące mikrobiom zachodzą w ciągu pierwszych trzech lat życia. Po tym czasie, jeśli nie występują czynniki silnie na niego wpływające, staje się on względnie stabilny, aż do wieku podeszłego, kiedy spada jego różnorodność. Wśród wspomnianych czynników znaczny wpływ ma sposób odżywiana. Dieta bardzo zróżnicowana i złożona sprawia, że bardziej zróżnicowany staje się również mikrobiom. Położenie geograficzne oraz różnice kulturowe powodują, że mikrobiom jelitowy może być odmienny wśród ludzi zamieszkujących różne inne regiony świata i spożywających pokarmy innego typu. Zmiany w składzie mikroorganizmów jelitowych może wywołać także przewlekły stres oraz częsty intensywny wysiłek fizyczny3. Negatywny wpływ mają leki, takie jak metformina, przyjmowana w cukrzycy typu II lub inhibiotory pompy protonowej, stosowane często w chorobie wrzodowej żołądka, refluksie żołądkowo – jelitowym, a także profilaktycznie w terapii niesteroidowymi lekami przeciwzapalnymi4. Ogromne spustoszenie w mikrobiomie pozostawiają po sobie antybiotykoterapie, szczególnie te w wykorzystaniem antybiotyków o szerokim spektrum działania. Z jednej strony mają one pozytywne działanie, hamując namnażanie lub zabijając bakterie patogenne. Z drugiej strony, ich użycie oddziałuje negatywnie na mikroflorę fizjologiczną, skutkując długotrwałymi zaburzeniami w jej składzie. Mogą także sprzyjać rozprzestrzenianiu się antybiotykoopornych szczepów bakterii, stanowiąc źródło genów oporności wśród mikroorganizmów jelitowych3. Nie bez znaczenia pozostaje także teraźniejszy tryb życia i związane z nim spożywanie chlorowanej wody, dodawanie różnych dodatków do żywności i jej zanieczyszczenia metalami ciężkimi, antybiotykami, pestycydami, mikotoksynami oraz zanieczyszczeniami organicznymi. Ciągłe narażenie na wymienione czynniki prowadzi w konsekwencji do stanu dysbiozy5. Rola mikrobiomu w organizmie Jak wcześniej wspomniano, mikrobiom jelitowy wytwarza szereg witamin niezbędnych do prawidłowego funkcjonowania organizmu. Należą do nich wszystkie witaminy z grupy B oraz witamina K. Mikrobiom odpowiada także za trawienie złożonych polisacharydów, niestrawionych we wcześniejszych odcinkach przewodu pokarmowego. Ponadto, syntetyzuje niezbędne aminokwasy, krótkołańcuchowe kwasy tłuszczowe oraz bierze udział w metabolizmie glukozy i cholesterolu. Za pośrednictwem różnych szlaków metabolicznych ma również zdolność do komunikacji z ośrodkowym układem nerwowym. Wykorzystuje do tego między innymi hormony i neuroprzekaźniki. W połączeniu w układem odpornościowym człowieka mikroorganizmy jelitowe stanowią pierwszą linię obrony przed toksynami i patogenami, chroniąc tym samym przed rozwojem choroby. W wyniku produkcji związków przeciwdrobnoustrojowych, zapobiegają kolonizacji patogenów, wykorzystując efekt bariery. Poprzez oddziaływanie z komórkami nabłonka jelitowego stanowią integralną część wrodzonego układu odpornościowego błony śluzowej jelit. Dysbioza towarzyszy stanom i chorobom, takim jak: choroba Leśniowskiego – Crohna, wrzodziejące zapalenie jelita grubego, zespół jelita drażliwego, zakażenie Clostridium difficile, choroby metaboliczne czy niealkoholowa stłuszczeniowa choroba wątroby. Badania wykazały, że dokonanie zmian w mikrobiomie za pomocą odpowiednich antybiotyków, probiotyków, a nawet przeszczepu mikrobiomu może prowadzić do szybszego polepszenia stanu pacjentów cierpiących na wspomniane choroby1. Dokonanie charakterystyki populacji, które doprowadziły do stanu dysbiozy jest ważne przy podjęciu strategii terapeutycznych. Możliwe jest to przy użyciu metod laboratoryjnych5. Dziedzina nauki zajmująca się badaniem mikrobiomu jelitowego nazywana jest mikrobiomiką. Jej celem jest identyfikacja jego składu, analiza genomu drobnoustrojów wchodzących w jego skład, określenie interakcji zachodzących między organizmem gospodarza, a mikroorganizmami jelitowymi oraz stwierdzenie wpływu mikrobiomu na patologię choroby. Wykorzystywane są metody molekularne w połączeniu z silnie rozwijająca się bioinformatyką. Jako materiał do badania mogą służyć próbki kału lub wycinki pobrane w wyniku biopsji błony śluzowej jelita6. Mikrobiom jelitowy stanowi złożoną, integralną część ludzkiego organizmu. Zapewnia istotne wsparcie umożliwiające prawidłowy przebieg różnych procesów metabolicznych oraz funkcjonowanie układu odpornościowego, chroniąc przed rozwojem wielu stanów patologicznych. Dysbioza może prowadzić do chorób wymagających odpowiedniej terapii. Badanie składu mikroflory jelitowej jest obiektem zainteresowania wielu badań, dając nadzieję na jego szersze wykorzystanie w diagnostyce i leczeniu1. 1. Mayenaaz Sidhu, David van der Poorten. The gut microbiome. Aust Fam Physician. 2017;46(4):206-211. 2. Na Shi, Na Li, Xinwang Duan and Haitao Niu. Interaction between the gut microbiome and mucosal immune system. Mil Med Res. 2017 Apr 27;4:14. doi: 10.1186/s40779-017-0122-9. 3. Gail A Cresci 1, Emmy Bawden. Gut Microbiome: What We Do and Don't Know. Nutr Clin Pract. 2015 Dec;30(6):734-46. Doi: 10.1177/0884533615609899. 4. Rinse K Weersma , Alexandra Zhernakova, Jingyuan Fu. Interaction between drugs and the gut microbiome. Gut. 2020 Aug;69(8):1510-1519. doi: 10.1136/gutjnl-2019-320204 5. Fabien Magne, Martin Gotteland, Lea Gauthier, Alejandra Zazueta, Susana Pesoa, Paola Navarrete, Ramadass Balamurugan. The Firmicutes/Bacteroidetes Ratio: A Relevant Marker of Gut Dysbiosis in Obese Patients?.Nutrients. 2020 May 19;12(5):1474. doi: 10.3390/nu12051474 6. P C Barko, M A McMichael, K S Swanson, D A Williams. The Gastrointestinal Microbiome: A Review. J Vet Intern Med. 2018 Jan;32(1):9-25. doi: 10.1111/jvim.14875. « powrót do artykułu
-
Grelina jest to endogenny peptyd mózgowo – jelitowy, wydzielany w dużych ilościach w żołądku u ludzi i gryzoni. Może pełnić biologiczną funkcję aktywacji receptora wydzielania hormonu wzrostu (GHSR). Została odkryta w 1999r. Od tego czasu przeprowadzono bardzo dużo badań dotyczących wpływu greliny na ludzki apetyt i odczuwaną przyjemność z jedzenia. Badania nad tym hormonem pokazały, że jest on wydzielany w wielu tkankach, a także bierze udział w regulacji neurohumoralnej, takiej jak homeostaza metaboliczna, stany zapalne, czy regulacja układu sercowo – naczyniowego1. Grelina jest wydzielana przez żołądek w momencie, gdy jest on pusty lub prawie pusty, a jej poziomy są zazwyczaj najwyższe tuż przed posiłkami. Następnie, gdy spożywamy pokarm poziom greliny spada. Niektóre stany mogą prowadzić do chronicznie niskiego lub wysokiego poziomu greliny. Niski poziom hormonu głodu występuję zazwyczaj u osób z otyłością. Niektórzy naukowcy uważają, że ma to związek z tym, że osoby otyłe są naturalnie bardziej wrażliwe na grelinę, wobec tego mogą czuć się znacznie bardziej głodne przy niższych stężeniach tego hormonu. Niższe stężenie greliny występuje również w niektórych chorobach żołądkowo – jelitowych takich jak: przewlekłe zapalenie żołądka, zakażenie H. pylori, czy Zespół jelita drażliwego. Wysoki poziom greliny utrzymuje się u osób ograniczających spożycie kalorii, np. podczas restrykcyjnej diety lub jest wynikiem chorób o podłożu genetycznym bądź psychicznym, takich jak: jadłowstręt psychiczny, nietolerancja glutenu, nieswoiste zapalenie jelit, Zespół Pradera – Williego. Na stężenie greliny w organizmie znacząco wpływają operacje chirurgiczne żołądka wykonywane podczas leczenia ciężkiej otyłości (rękawowa resekcja żołądka, bajpas żołądka). U ludzi po tych zabiegach obserwowano znacznie niższe poziomy hormonu głodu. Uważa się, że zmniejszony rozmiar żołądka jest jedną z przyczyn utraty wagi po operacji bariatrycznej i jest odpowiedzialny za niższy poziom greliny3. Leptyna Warto również wspomnieć o innym istotnym hormonie leptynie, który podobnie jak grelina ma wpływ na kontrolę apetytu i uczucie sytości, a co za tym idzie regulację masy ciała. Leptyna zmniejsza apetyt, natomiast grelina go zwiększa. Produkowana prze komórki tłuszczowe leptyna informuje mózg o wystarczającej ilości energii i uczuciu sytości. Przekazuje również informacje do mózgu, że organizm może zacząć spalać tłuszcz w celu uzyskania energii. Ludzie, którzy mają więcej tkanki tłuszczowej, mają zazwyczaj wyższy poziom leptyny krążącej w ich ciałach. W wyniku tej stałej wysokiej ekspozycji na leptynę mogą się na nią uodpornić, a także na jej działanie hamujące apetyt. Może to spowodować wysyłanie mylnych informacji do mózgu o potrzebie jedzenia. Kiedy organizm dostaje więcej jedzenia niż potrzebuje poziom leptyny zwiększa się, a ciało staje się na nią jeszcze bardziej odporne co sprzyja powstawaniu otyłości. Grelina odgrywa rolę w krótkoterminowej kontroli apetytu, natomiast leptyna kontroluje długoterminową kontrolę masy ciała4. Wpływ greliny na apetyt i przyrost masy ciała Przyjmowanie pokarmu jest ważnym aspektem homeostazy energetycznej i homeostazy glukozy. Główną rolą greliny jest stymulacja apetytu, a tym samym pobór energii. Hormon głodu wydzielany jest w stanach ujemnego bilansu energetycznego podczas głodu i tłumiony w stanach dodatniego bilansu energetycznego po posiłku, co sugeruje, że grelina pełni kompensacyjną rolę w braku równowagi energetycznej. Dowody farmakologiczne potwierdzają rolę greliny w pobudzaniu apetytu. Ciągłe podawanie (za pomocą iniekcji) greliny do kory mózgowej gryzoni, silnie zwiększa u nich poczucie głodu, a co za tym idzie pobieranie pokarmu i przyrost masy ciała. Odwrotny skutek osiągnięto podając gryzoniom immunoglobuliny anty- grelina, które hamowały u nich pobieranie pokarmu. Wykazano również, że poziom greliny ściśle odpowiada harmonogramom karmienia. Jej stężenie w osoczu ludzkim wzrasta dwukrotnie przed posiłkiem i krótko po nim spada. Może to być związane z rolą hormonu głodu w inicjacji karmienia. Jednak ustalone pory posiłków oznaczały, że badani ludzie byli świadomi nadchodzącego posiłku, dlatego na jego rozpoczęcie mogła mieć wpływ przewidywana reakcja na pokarm, a nie poziom krążącej greliny2. Uważa się, że grelina zwiększa glikemię i apetyt, powodując otyłość, a hamowanie aktywności greliny lub jej receptora łagodzi otyłość, obniża glikemię i sprzyja metabolizmowi tłuszczów. Wydzielanie hormonu głodu jest wrażliwe na stężenie glukozy we krwi w warunkach hipoglikemii, a długotrwałe głodzenie prowadzi do wzrostu jej poziomu w surowicy. Po około godzinie od posiłku poziom krążącej greliny stopniowo spada. Ponadto zablokowanie interakcji między greliną i/lub receptorami greliny nasila objawy hipoglikemii, co sugeruje, że hormon głodu może być dobrym lekiem skojarzonym u pacjentów, którzy nie reagują dobrze na antagonistów receptora glukagonu. Gdy do leczenia cukrzycy typu 1 stosuje się antagonistów receptora glukagonu, stężenie greliny w osoczu wzrasta, aby przeciwdziałać hipoglikemii wywołanej lekami. Zatem hormon głodu ma duże znaczenie terapeutyczne w łagodzeniu skutków ubocznych leków przeciwcukrzycowych, gdyż może odwracać hipoglikemię wywołaną lekami przeciwcukrzycowymi1. Inne funkcje greliny Choć w największym stopniu grelina wydzielana jest w żołądku, jej uwalnianie następuje również w innych częściach ciałach tj. mózg, jelito cienkie i trzustka. Hormon głodu poza swoją główną funkcją, którą jest informowanie mózgu o poczuciu głodu ma wiele innych zastosowań, np.: - zwiększa spożycie pokarmu i pomaga organizmowi magazynować tłuszcz, - pomaga w pobudzeniu przysadki mózgowej do uwalniania hormonu wzrostu, - odgrywa rolę w kontrolowaniu poziomu cukru i uwalnianiu przez organizm insuliny, - odgrywa rolę w ochronie mięśni przed osłabieniem, w tworzeniu kości oraz w metabolizmie. Jak utrzymać odpowiedni poziom greliny w organizmie? Aby utrzymać równowagę hormonalną w organizmie należy praktykować dobre nawyki związane ze stylem życia, takie jak: unikanie modnych diet lub jo-jo diet, podczas których dochodzi do częstych zmian masy ciała. Należy stosować zbilansowaną dietę bogatą w zdrowe węglowodany, czyli produkty pełnoziarniste i chude białka zawarte w kurczaku czy rybach. Potrzeba również ograniczyć przetworzoną żywność, zwłaszcza zawierającą duże ilości cukru, syrop kukurydziany o wysokiej zawartości fruktozy i sól. Zaleca się również zadbać o dobry sen trwający siedem do ośmiu godzin na dobę, odpowiednie nawodnienie organizmu (1,5 l wody na dobę, spożywanie pokarmów wypełnionych wodą takich jak owoce i warzywa), oraz kontrolę reakcji na stres, ponieważ stres może zwiększać poziom greliny. Poziom hormonu głodu ma tendencję do wzrostu i spadku wraz z ilością spożywanego jedzenia. Jego stężenie może się zmniejszać, gdy organizm jest nawodniony oraz wzrastać podczas odwodnienia. Rodzaje spożywanych pokarmów znacząco wpływają na poziom greliny. Spożywając potrawy bogate w białko lub zdrowe węglowodany poziom hormonu głodu obniża się bardziej niż podczas spożywania posiłków wysokotłuszczowych3. 1. “Molecular Mechanisms and Health Benefits of Ghrelin: A Narrative Review” – Zheng- Tong J., Qi L. Nutrients 2022, 14(19), 4191 2. “The Physiological Role of Ghrelin in the Regulation of Energy and Glucose Homeostasis” - Sovetkina A., Nadir R., Fung J.N.M., Nadjarpour A. i in. Cureus 2020 May; 12(5): e7941 3. “Ghrelin” Last reviewed by a Cleveland Clinic medical professional on 04/21/2022. https://my.clevelandclinic.org/health/body/22804-ghrelin 4. “How Your Hunger Hormones Control Weight Loss” - Rodgiguez J., Sands. M. News and Research https://www.endocrineweb.com/news/63844-how-hunger-hormones-control-weight-loss « powrót do artykułu
-
Inżynierowie z University of Massachusetts Amherst wykazali, że z niemal każdego materiału można stworzyć urządzenie pobierające energię elektryczną z pary wodnej zawartej w powietrzu. Wystarczy utworzyć w tym materiale nanopory o średnicy mniejszej niż 100 nanometrów. To niezwykle ekscytujące. Otworzyliśmy drogę do wytwarzania czystej energii z powietrza, cieszy się główny autor artykułu opisującego badania, świeżo upieczony inżynier Xiaomeng Liu. Powietrze zawiera olbrzymie ilości energii elektrycznej. Weźmy na przykład chmurę, która jest niczym innym jak masą kropelek wody. Każda z tych kropelek zawiera ładunek elektryczny i w odpowiednich warunkach dochodzi do wyładowania. Nie potrafimy jednak pozyskiwać energii z tych wyładowań. Natomiast my stworzyliśmy niewielką chmurę, która wytwarza energię w sposób przewidywalny, możemy więc ją zbierać, dodaje profesor Jun Yao. U podstaw najnowszego odkrycia znajduje się praca Yao i Dereka Levleya, którzy w 2020 roku wykazali, że możliwe jest nieprzerwane pozyskiwanie energii elektrycznej z powietrza za pomocą specjalnego materiału złożonego z nanokabli zbudowanych z białek bakterii Geobacter sulfureducens. Po tym, jak dokonaliśmy tego odkrycia zauważyliśmy, że tak naprawdę zdolność pozyskiwania energii z powietrza jest wbudowana w każdy materiał, który posiada pewne właściwości, mówi Yao. Wystarczy, by materiał ten zawierał pory o średnicy mniejszej niż 100 nanometrów, czyli ok. 1000-krotnie mniejszej niż średnica ludzkiego włosa. Dzieje się tak dzięki parametrowi znanemu jako średnia droga swobodna. Jest to średnia odległość, jaką przebywa cząsteczka przed zderzeniem z inną cząsteczką. W tym wypadku mowa o cząsteczce wody w powietrzu. Średnia droga swobodna wynosi dla niej około 100 nanometrów. Yao i jego zespół zdali sobie sprawę, że mogą wykorzystać ten fakt do pozyskiwania energii elektrycznej. Jeśli ich urządzenie będzie składało się z bardzo cienkiej warstwy dowolnego materiału pełnego porów o średnicy mniejszej niż 100 nanometrów, wówczas molekuły wody będą wędrowały z górnej do dolnej części takiego urządzenia. Po drodze będą uderzały w krawędzie porów. Górna część urządzenia będzie bombardowana większą liczbą cząstek wody, niż dolna. Pojawi się w ten sposób nierównowaga ładunków jak w chmurze, której górna część jest bardziej naładowana niż dolna. W ten sposób powstanie bateria, która będzie działała dopóty, dopóki w powietrzu jest wilgoć. To bardzo prosty pomysł, ale nikt wcześniej na niego nie wpadł. Otwiera to wiele nowych możliwości, mówi Yao. Jako, że tego typu urządzenie można zbudować praktycznie z każdego materiału, można je umieścić w różnych środowiskach. Możemy wybrazić sobie takie baterie z jednego materiału działające w środowisku wilgotnym, a z innego – w suchym. A że wilgoć w powietrzu jest zawsze, to urządzenie będzie działało przez całą dobę, niezależnie od pory dnia i roku. Poza tym, jako że powietrze rozprzestrzenia się w trzech wymiarach, a my potrzebujemy bardzo cienkiego urządzenia, cały system bardzo łatwo można skalować, zwiększając jego wydajność i pozyskując nawet kilowaty mocy. « powrót do artykułu
-
Przeprowadzone na dzieciach i dorosłych udane testy szczepionki NmCV-5 dają nadzieję, że do roku 2030 uda się zakończyć trwającą w Afryce epidemię zapalenia opon mózgowo-rdzeniowych. Badania pokazały, że nowa szczepionka przeciwko meningokokom jest bezpieczna i generuje silną odpowiedź autoimmunologiczną przeciwko szczepom A, C, W, Y oraz X. W 3. etapie badań klinicznych, podczas której porównywano efektywność NmCV-5 z efektywnością MenACWY-D, wzięło udział 1800 zdrowych mieszkańców Mali i Gambii w wieku 2–29 lat. Testy wykazały, że po 28 dniach od podania szczepionki reakcja układu odpornościowego jest silniejsza w przypadku NmCV-5. Nowa szczepionka generowała też silną reakcję na szczep X, na który obecnie szczepionki nie istnieją. Nie stwierdzono też poważnych działań ubocznych NmCV-5. Z danych WHO wynika, że w 2019 roku zapalenie opon mózgowo-rdzeniowych zabiło 250 000 osób. Uznano wówczas, że tylko dzięki nowym szczepionkom uda się osiągnąć cel założony w programie Defeating Meningitis by 2030 Global Roadmap. Głównym regionem, w którym występują meningokokowe i pneumokokowe zapalenie opon mózgowo rdzeniowych, są kraje Afryki Subsaharyjskiej. Mówi się o występowania tam „pasa zapalenia opon mózgowo-rdzeniowych”. Sytuacja jest tam poważna, między innymi ze względu na problemy z dostawami i dostępnością już opracowanych szczepionek. Co gorsza, pojawił się też szczep X, który ma potencjał wywołania epidemii, a na który nie istniała dotychczas żadna szczepionka. NmCV-5 została stworzona przez Serum Institute of India. Dzięki opracowaniu tańszych metod produkcji można mieć nadzieję, że nowa szczepionka będzie tańsza niż dotychczas stosowane preparaty przeciwko 4 szczepom meningokoków. Testy kliniczne, prowadzone przez naukowców z Mali oraz London School of Hygiene & Tropical Medicine, zostały zaprojektowane tak, by możliwe było uzyskanie licencji WHO na wykorzystanie NmCV-5 w projekcie zwalczania epidemii. Jesteśmy zadowoleni z wyników badań. Sądzimy, że NmCV-5 zapewni dzieciom i młodym dorosłym ochronę przed zapaleniem opon mózgowo-rdzeniowych powodowane przez meningokoki. Będzie ona niezbędnym narzędziem służącym do przerwania i zapobieżenia epidemii zapalenia opon mózgowych, mówi doktor Ed Clarke. A doktor Ama Umesi przypomina, że wspomniana choroba jest śmiertelna o dużym potencjalne wywoływania epidemii. Testy nowej szczepionki rozpoczęły się w czerwcu 2021 roku. Ich uczestnicy zostali podzieleni na trzy grupy wiekowe: 2-10 lat, 11-17 lat oraz 18-29 lat. « powrót do artykułu
-
- meningokoki
- zapalenie opon mózgowo-rdzeniowych
-
(i 1 więcej)
Oznaczone tagami:
-
W pierwszej połowie XIX wieku Duńczycy szczególnie polubili piwo, co wiązało się z gwałtownym rozwojem przemysłu piwowarskiego. To rosnące zamiłowanie do złocistego napoju zbiegło się z trwającym mniej więcej w latach 1800–1850 złotym wiekiem duńskiego malarstwa. Jak się okazuje, oba te zjawiska miały więcej wspólnego niż mogłoby się wydawać. Przeprowadzone właśnie badania potwierdziły, że duńscy mistrzowie malarstwa używali pozostałości po warzeniu piwa do przygotowania płótna pod swoje dzieła. Aby uzyskać oczekiwane przez siebie efekty, malarze musieli najpierw użyć substancji, które pomogą farbom utrzymać się na płótnie. Duńczycy wytwarzali i wypijali w tym czasie olbrzymie ilości piwa, a że woda w rzekach nie była zbyt czysta, przemysł piwowarski wytwarzał dużą ilość odpadów. Historyczne teksty sugerują, że odpady te mogły być wykorzystywane do zagruntowania płótna. Dlatego tez naukowcy postanowili sprawdzić, czy to prawda. Uczeni przeanalizowali skład chemiczny 10 obrazów autorstwa Christoffera Wilhelma Eckersberga, zwanego ojcem duńskiego malarstwa, oraz jego ucznia Christena Schiellerupa Købke. Wykorzystali przy tym próbki pobrane jeszcze w latach 60. ubiegłego wieku. Teraz, korzystając ze spektrometrii mas, mogli zidentyfikować proteiny wchodzące w skład podkładu. Znaleźli w próbkach duże ilości białek typowych dla procesu warzenia piwa, a pochodzących z jęczmienia, pszenicy, gryki i żyta. Potwierdzono więc zapiski czynione przez samych malarzy, a wiedza ta będzie miała znaczenie jak najbardziej praktyczne. Eksperci będą mogli ją wykorzystać podczas prac konserwatorskich. « powrót do artykułu
-
Martin Peterson z Uniwersytetu w Montrealu odkrył egzoplanetę wielkości Ziemi, która prawdopodobnie pokryta jest wulkanami. LP 791-18 d znajduje się w odległości 90 lat świetlnych od Ziemi, a badania za pomocą Teleskopu Spitzera, TESS oraz teleskopów naziemnych sugerują, że do erupcji wulkanicznych dochodzi nań równie często jak na Io – księżycu Jowisza – najbardziej aktywnym pod tym względem obiekcie w Układzie Słonecznym. LP 971-18 d obraca się synchronicznie ze swoją gwiazdą, a to oznacza, że jedna jej połowa wciąż jest zwrócona w stronę gwiazdy. Strona dzienna jest prawdopodobnie zbyt gorąca, by na jej powierzchni mogła istnieć woda w stanie ciekłym. Jednak intensywna działalność wulkaniczna do której, jak podejrzewamy, dochodzi na całej planecie, może podtrzymywać istnienie atmosfery, a to z kolei może pozwalać na kondensację wody po stronie nocnej, mówi profesor Björn Benneke, który zaplanował i nadzorował badania. Planeta LP 791-18 d krąży wokół niewielkiego czerwonego karła znajdującego się w Gwiazdozbiorze Pucharu. Dotychczas znaliśmy tam dwie planety, LP 791-18 b oraz c. Położona bliżej gwiazdy planeta b jest o około 20% większa od Ziemi, z kolei c jest 2,5-krotnie większa i 7-krotnie bardziej masywna od naszej planety. Nowo odkryta d jest tylko nieco większa i bardziej masywna od Ziemi. Podczas każdego okrążenia gwiazdy planety d i c mijają się w niewielkiej odległości. Bardziej masywna c przyciąga do siebie d, przez co jej orbita jest nieco eliptyczna. I za każdym razem, gdy mija c, oddziaływanie grawitacyjne bardziej masywnej planety powoduje deformacje planety d. Deformacje te prowadzą do pojawienia się wewnętrznego tarcia i uwalniania olbrzymich ilości energii, która znajduje ujście w aktywności wulkanicznej na jej powierzchni. Planeta d znajduje się w ekosferze swojej gwiazdy, zatem w takiej odległości od niej, w której może istnieć woda w stanie ciekłym. Jeśli rzeczywiście jest ona geologicznie aktywna, to może posiadać atmosferę, a temperatury na stronie nocnej powinny być na tyle niskie, że dochodzi tam do kondensacji pary wodnej. Odkrywcy LP 917-18 d uważają, że jest ona bardzo dobrym celem badawczym dla Teleskopu Webba. Tym bardziej, że planeta c będzie za jego pomocą badana. Bardzo ważne pytanie na polu astrobiologii brzmi, czy aktywność tektoniczna lub wulkaniczna jest niezbędna do pojawienia się życia. Procesy takie mogą nie tylko zapewniać atmosferę, ale również dostarczać na powierzchnię planet materiał, który w innym wypadku by zatonął i zostałby uwięziony w skorupie. Takim materiałem jest np. węgiel, który uważany jest za ważny dla pojawienia się życia, mówi Jessie Christiansen z Exoplanet Science Institute. « powrót do artykułu
-
- egzoplaneta
- LP 791-18 d
-
(i 1 więcej)
Oznaczone tagami:
-
W Morzu Południowochińskim odkryto wraki dwóch statków z czasów dynastii Ming. Jeden transportował porcelanę, drugi drewno. Jednostki znaleziono w październiku zeszłego roku na głębokości 1500 m u wybrzeży Hajnanu (w pobliżu północno-zachodniego zbocza kontynentalnego). Niedawno zaczęto badania stanowisk i samych wraków. Przy wraku nr 1 specjalistom udało się założyć stałą podwodną bazę mapowania. Przeprowadzono też wstępne badania i dokumentację fotograficzną/filmową. Za zgodą odpowiednich organów państwowych, instytuty naukowe i lokalne muzeum zrealizują roczne, 3-etapowe badania. Ładunek pierwszej jednostki jest rozrzucony na powierzchni ok. 10 tys. m2 i składa się z ponad 100 tys. przedmiotów z porcelany. Wg wstępnych analiz, datują się one na okres panowania cesarza Zhengde. Dominują wśród nich obiekty pochodzące dwóch ośrodków, w tym z Jingdezhen w prowincji Jiangxi. Okręt numer dwa transportował głównie drewno (oprócz tego znaleziono nieliczne artefakty z porcelany). Wszystkie bale są podobnej wielkości. Prawdopodobnie miały zostać wykorzystane w szkutnictwie. Wstępne badania pokazały, że to materiał z importu, kupowany za panowania cesarza Hongzhi. Naukowcy podkreślają, że po raz pierwszy na jednym obszarze odkryto statki z ładunkiem na eksport i z importu. Dzięki sąsiadującym ze sobą wrakom - dzieli je odległość ok. 20 km - zespół może więc zbadać, jak wyglądał handel dwustronny na Morzu Południowochińskim 500 lat temu. To pomoże nam w analizie bilateralnego przepływu [dóbr] w ramach tzw. Morskiego Szlaku Jedwabnego - wyjaśnia Tang Wei, dyrektor Chińskiego Narodowego Centrum Archeologii. Wg archeologów, statki przemieszczały się w przeciwnych kierunkach. Wraki są stosunkowo dobrze zachowane. W misję wyruszył wyposażony w batyskaf Shenhai Yongshi statek badawczy Tansuo 1. Jeden z członków ekipy, Chen Chuanxu, zapowiedział, że do ekspedycji przyłączy się statek Tansuo 2 z batyskafem Fendouzhe. Podczas akcji wykorzystano zaawansowane technologie. Naukowcy wspominają o robotach skonstruowanych z bardzo elastycznych materiałów (miękkiej robotyce) czy nowych metodach skanowania i fotografowania. Obecnie badacze testują zdalny monitoring. By chronić stanowiska, nie ujawniono dokładnych koordynat. Pierwszy etap zaplanowanych na rok prac obejmuje okres od 20 maja do początku czerwca. Batyskafy określą m.in. obszar, na którym znajdują się szczątki obu jednostek. Drugi i trzeci etap potrwają, odpowiednio, od sierpnia do września br. i od marca do kwietnia przyszłego roku. Wg Songa Jianzhonga z Chińskiego Narodowego Centrum Archeologii, do kwietnia 2024 r. batyskafy wykonają ok. 50 zanurzeń. Najpierw musimy określić stan wraków, a później sporządzić plan wykopalisk i konserwacji. Kolejne ekspedycje zajmą się badaniami geofizycznymi i geologicznymi, a także analizą życia morskiego. « powrót do artykułu
-
Dzięki rzadkiej mutacji genetycznej Jo Cameron żyje bez bólu, jej rany szybciej się goją, a kobieta nigdy nie odczuwa lęku i strachu. Przed dwoma laty naukowcy z University College London (UCL) odkryli u niej zmutowany gen FAAH-OUT, a teraz opisali unikatowy mechanizm molekularny, za pomocą którego mutacja wyłącza ekspresję genu FAAH oraz wpływa na inne szlaki molekularne powiązane z gojeniem się ran i nastrojem. Ich odkrycie może stać się przyczynkiem do nowych prac w obszarach, w których Jo Cameron jest tak wyjątkowa. Kobieta trafiła pod opiekę genetyków z UCL w 2013 roku, gdy jej lekarz zauważył, że nie odczuwa ona bólu po dużych zabiegach chirurgicznych na biodrze i dłoni. Naukowcy z Londynu przez 6 lat poszukiwali przyczyny tego zjawiska, aż zidentyfikowali gen, który nazwali FAAH-OUT, zawierający rzadką mutację. Połączenie z inną, częściej spotykaną mutacją w genie FAAH, dało Jo unikatowe cechy. Co interesujące, gen FAAH-OUT znajduje się w „śmieciowym DNA”. To DNA niekodujące, które stanowi aż 98% genomu, a o którym do niedawna sądzono, że nie odgrywa żadnej roli. Ostatnio pojawia się jednak coraz więcej badań wskazujących na to, że „śmieciowe DNA” jest niezwykle ważne, a jedne z nich wskazują, że być może dzięki niemu jesteśmy ludźmi. Teraz okazało się, że FAAH-OUT wpływa na ekspresję genu FAAH, który stanowi część układu endokannabinoidowego i oddziałuje na odczuwanie bólu, nastrój oraz pamięć. Zrozumienie, w jaki sposób FAAH-OUT wpływa na ekspresję FAAH może pomóc np. w opracowaniu nowych leków przeciwbólowych. Dzięki Jo Cameron naukowcy dowiedzieli się, że FAAH-OUT ma wpływ na ekspresję FAAH, a gdy wpływ ten – tutaj w wyniku mutacji – zostaje znacznie zmniejszony, dochodzi do dużej redukcji poziomu aktywności enzymów FAAH. FAAH-OUT to niewielki punkt na rozległym oceanie, który dopiero zaczęliśmy mapować. Stanowi on molekularną podstawę do pozbycia się bólu, zidentyfikowaliśmy też szlaki molekularne wpływające na nastrój i gojenie się ran. A na to wszystko ma wpływ mutacja w FAAH-OUT. Myślę, że nasze badania będą miały istotny wpływ na takie obszary naukowe jak gojenie się ran, depresja i wiele innych, mówi jeden za autorów badań, doktor Andrei Okorokov. Analizy pokazały też, że mutacja, którą posiada Jo Cameron, a która wyłączyła FAAH, doprowadziła też do wyłączenia 348 innych genów oraz włączenia 797. Są wśród nich zmiany w szlaku WNT, który jest powiązany z gojeniem się ran. Zaobserwowano na przykład zwiększoną aktywność genu WNT16, który jest wiązany z regeneracją kości. Innymi istotnymi genami, których aktywność została zmieniona są BNDF, wiązany z regulacją nastroju oraz ACKR3, który wpływa na regulację poziomu opioidów. To te zmiany mogą powodować, że Jo Cameron nie czuje niepokoju, strachu czy bólu. Początkowe odkrycie mutacji genetycznej u Jo Cameron było niezwykle ekscytujące. Ale dopiero teraz zaczyna robić się naprawdę ciekawie. Dzięki dokładnemu zrozumieniu, co dzieje się na poziomie molekularnym możemy próbować zrozumieć, jak działa cały mechanizm biologiczny, a to otwiera drogę do odkrycia leków, które pewnego dnia będą miały olbrzymi wpływ na życie pacjentów, dodaje profesor James Cox. « powrót do artykułu
- 10 odpowiedzi
-
- mutacja genetyczna
- rana
-
(i 2 więcej)
Oznaczone tagami:
-
Naukowcy z Uniwersytet w Tel Awiwie szukają przyczyny masowego wymierania jeżowców w Morzu Śródziemnym i Zatoce Akaba. W ciągu kilku miesięcy wymarła cała populacja gatunku Diadema setosum zamieszkująca Zatokę Akaba. Badania wykazały, że podobne zjawisko zachodzi również w całym regionie, w tym u wybrzeży Turcji, Grecji, Arabii Saudyjskiej, Egiptu i Jordanii. Tymczasem jeżowce, a szczególnie Diadema setosum, są kluczowym gatunkiem niezbędnym do prawidłowego funkcjonowania raf koralowych. Uczeni sądzą, że wśród jeżowców panuje epidemia wywołana przez orzęski, które przedostały się Morza Śródziemnego na Morze Czerwone. Wszczęto alarm i specjaliści zastanawiają się, jak uratować izraelskie rafy koralowe. Najpierw zaobserwowano, że w ciągu kilku tygodni wyginęły wszystkie Diadema setosum w jednym z północnych regionów Zatoki. Początkowo sądziliśmy, że to jakieś zanieczyszczenie, zatrucie, może gdzieś doszło do wycieku, z jakiegoś zakładu przemysłowego czy hotelu na północy Zatoki Akaba. Gdy jednak sprawdziliśmy inne miejsca, okazało się, że to nie jest lokalny incydent. Wszystko wskazywało na szybko rozprzestrzeniającą się epidemię. Koledzy z Arabii Saudyjskiej poinformowali nas o podobnych przypadkach. Padły nawet jeżowce, które hodujemy dla celów badawczych w akwariach w naszym Instytucie Międzyuniwersyteckim i jeżowce z Underwater Observatory Marine Park. Patogen prawdopodobnie przedostał się przez system pompujący wodę. To szybka, brutalna śmierć. W ciągu dwóch dni ze zdrowego jeżowca pozostaje szkielet ze znaczącymi ubytkami tkanki. Umierające jeżowce nie są w stanie się bronić przed rybami, te się na nich żywią, co może przyspieszyć rozprzestrzenianie się epidemii, mówi główny autor badań, doktor Omri Bronstein z Wydziału Zoologii Uniwersytetu w Tel Awiwie. Doktor Bronstein od lat bada rafy koralowe pod kątem występowania na nich gatunków inwazyjnych. Jednym z gatunków, na których się skupiał jest właśnie D. setosum, czarny jeżowiec o wyjątkowo długich kolcach. To gatunek rodzimy Indo-Pacyfiku, który dzieli się na dwa klady. Jeden występujący na zachodzie Pacyfiku i u wschodnich wybrzeży Afryki i drugi zamieszkujący Morze Czerwone oraz Zatokę Perską. Wybudowanie Kanału Sueskiego otworzyło tropikalnym gatunkom z Indo-Pacyfiku drogę na Morze Śródziemne. D. setosum został zaobserwowany w tym akwenie po raz pierwszy w 2006 roku u wybrzeży Turcji. Od tamtej pory gatunek zwiększył swój zasięg na cały Lewant oraz Morza Jońskie i Egejskie. Globalne ocieplenie dodatkowo zaś przyspiesza inwazję gatunków tropikalnych na wschodnie regiony Morza Śródziemnego. Jeżowce, a w szczególności Diadem setosum, to kluczowe gatunki zapewniające zdrowie rafom koralowym. Są one ogrodnikami raf. Żywią się glonami, zapobiegając zaduszeniu przez nie koralowców, z którymi konkurują o dostęp do światła. Niestety jeżowce te nie występują już w Zatoce Akaba, a zasięg ich wymierania szybko rozszerza się na południe, dodaje Bronstein. Izraelczycy, po otrzymaniu pierwszych informacji o pojawieniu się na Morzu Śródziemnym inwazyjnego D. setosum, przystąpili do badań nad intruzem. W 2016 roku po raz pierwszy zauważyli ten gatunek u śródziemnomorskich wybrzeży Izraela. Od 2018 odnotowują gwałtowny rozrost jego populacji. Ledwo jednak rozpoczęliśmy badania podsumowujące inwazję jeżowców na Morze Śródziemne, a zaczęliśmy otrzymywać informacje o ich nagłym wymieraniu. Można stwierdzić, że wymieranie inwazyjnego gatunku nie jest niczym niekorzystnym, ale musimy brać pod uwagę dwa zagrożenia. Po pierwsze, nie wiemy jeszcze, jak to wymieranie wpłynie na gatunki rodzime dla Morza Śródziemnego. Po drugie, i najważniejsze, bliskość Morza Śródziemnego i Czerwonego zrodziła obawy o przeniesienie się patogenu na na rodzimą populację jeżowców na Morzu Czerwonym. I tak się właśnie stało, wyjaśnia Bronstein. To, co dzieje się obecnie na Morzu Śródziemnym i Czerwonym przypomina zjawiska znane z Karaibów. W 1983 roku nagle wymarły tam jeżowce, a rafy koralowe zostały zniszczone przez glony. W ubiegłym roku sytuacja się powtórzyła. A dzięki nowym technologiom i badaniom przeprowadzonym przez naukowców z Cornell University wiemy, że przyczyną zagłady jeżowców na Karaibach były pasożytnicze orzęski. Stąd też podejrzenie, że to one są przyczyną wymierania jeżowców u zbiegu Europy, Afryki i Azji. Diadema setosum to jeden z najbardziej rozpowszechnionych na świecie gatunków jeżowców. Sytuacja jest naprawdę poważna. W Morzu Czerwonym wymieranie przebiega błyskawicznie i już objęło większy obszar, niż w Morzu Śródziemnym. Wciąż nie wiemy, co dokładnie zabija jeżowce. Czy to orzęski, jak na Karaibach, czy też jakiś inny czynnik? Tak czy inaczej jest on z pewnością przenoszony przez wodę, dlatego też obawiamy się, że wkrótce wyginą wszystkie jeżowce w Morzu Śródziemnym i Czerwonym, martwi się Bronstein. « powrót do artykułu
-
- Diadema setosum
- wymieranie
-
(i 3 więcej)
Oznaczone tagami:
-
Pozycjonowanie stron. Wydajność witryny a pozycja w Google
KopalniaWiedzy.pl dodał temat w dziale Artykuły
Pozycjonowanie to szereg działań, które na celu mają zwiększenie widoczności strony www lub sklepu e-commerce w organicznych wynikach wyszukiwania. W dzisiejszym, cyfrowym świecie, gdzie miliony stron konkurują o uwagę użytkowników, efektywne SEO jest niezbędne. W naszym artykule omówimy kluczowe czynniki wpływające na SEO, w tym kwestie dotyczące wydajności strony, na przykład metrykę Contentful Paint (FCP) i inne. Zapraszamy do zapoznania się z artykułem -agencja SEO/SEM 1stplace.pl. Pozycjonowanie stron i sklepów e-commerce Jak już wspominaliśmy powyżej, pozycjonowanie ma na celu poprawę widoczności strony w organicznych wynikach wyszukiwania. Wyższa pozycja w Google oznacza większą widoczność, więcej ruchu na stronie, a tym samym potencjalnie większe zyski. Pomimo że podstawy pozycjonowania mogą wydawać się proste, cały proces wymaga specjalistycznej wiedzy i ciągłego monitorowania zmieniających się algorytmów wyszukiwarek. Właśnie dlatego, wiele firm decyduje się na skorzystanie z usług agencji e-marketingowej. Agencje e-marketingowe, specjalizujące się w SEO, dysponują niezbędnym doświadczeniem i narzędziami do skutecznego pozycjonowania strony. Specjaliści opracują kompleksową strategię, obejmującą optymalizację on-site i off-site, przeprowadzają analizę słów kluczowych, przygotują treści. Skorzystanie z usług profesjonalnej agencji może przynieść wiele korzyści Twojej firmie. Pozycjonowanie - działania on-site i off-site Pozycjonowanie stron to proces, który obejmuje wiele różnych elementów i strategii. Zrozumienie, jak te elementy współgrają ze sobą, jest kluczowe dla uzyskania satysfakcjonujących efektów. W procesie SEO mówimy o działaniach on-site i off-site. On-page SEO Działania on-page dotyczą prac przeprowadzanych bezpośrednio na stronie www. Są to elementy, które możesz kontrolować i optymalizować. Zawartość: Google ceni unikalne, świeże i wartościowe treści, które są użyteczne dla użytkowników. Treści powinny być napisane w jasny i zrozumiały sposób, z użyciem odpowiednich słów kluczowych. Słowa kluczowe: Słowa kluczowe to ważny element pozycjonowania. Muszą być odpowiednio dobrane i używane w treści, metatagach i URLach. Dzięki temu zarówno roboty Google, jak i użytkownicy, zrozumieją tematykę strony. Meta tagi: Meta tagi, takie jak meta tytuł i opis meta, pomagają wyszukiwarkom (i użytkownikom), zrozumieć, co znajduje się na stronie. Meta dane powinny być unikalne dla każdej podstrony i zawierać odpowiednie słowa kluczowe. URL: Struktura URL powinna być jasna, zawierać słowa kluczowe, które pomagają zrozumieć, co znajduje się na danej podstronie. Szybkość ładowania strony: Wolno ładujące się strony mogą zniechęcić użytkowników, co poskutkuje wyższym współczynnikiem odrzuceń. Dlatego ważne jest, aby strona ładowała się szybko. Optymalizacja pod kątem urządzeń mobilnych: Liczba użytkowników korzystających z internetu za pomocą telefonów i tabletów wciąż wzrasta. Właśnie dlatego, optymalizacja strony pod kątem urządzeń mobilnych jest niezbędna. Strona powinna być responsywna, czyli dostosowywać swój wygląd i funkcje do rozmiaru ekranu urządzenia, na którym jest wyświetlana. Linki wewnętrzne: Linki prowadzące do różnych podstron w obrębie Twojej witryny pomagają w nawigacji, zwiększają crawl budget. Off-page SEO Czynniki off-page odnoszą się do działań poza stroną. Jest to przede wszystkim linkowanie zewnętrzne. Backlinki, czyli linki z innych stron, prowadzące na Twoją witrynę, mogą znacznie poprawić pozycję strony. Google traktuje wartościowe odnośniki, jak głosy oddane na Twoją witrynę. Czynniki wydajności strony www Wydajność strony internetowej odnosi się do prędkości i płynności działania. Jest to kluczowa kwestia, wpływająca na wrażenia użytkowników, jak i na wyniki pozycjonowania. First Contentful Paint (FCP) znaczenie i optymalizacja First Contentful Paint (https://1stplace.pl/blog/first-contentful-paint-fcp-czym-jest-dlaczego-jest-wazny/) to metryka, która mierzy czas od rozpoczęcia ładowania strony do momentu, gdy pierwszy element (np. obrazek, tekst), jest renderowany na ekranie. Jest to kluczowy wskaźnik, stanowiący sygnał dla użytkownika, że strona się ładuje. Wysokie wartości FCP mogą sugerować, że użytkownik przez dłuższy czas widzi pusty ekran. Może to prowadzić do frustracji i potencjalnie zniechęcić odwiedzającego do dalszego korzystania ze strony. Optymalizacja FCP jest więc niezbędna dla dobrej wydajności strony. Inne czynniki wydajności strony www Oprócz FCP istnieją inne metryki wydajności, które są ważne dla doświadczenia użytkownika i mogą wpływać na pozycjonowanie strony. Poniżej omawiamy metryki Core Web Vitals. Largest Contentful Paint (LCP): Metryka mierzy czas ładowania największego elementu widocznego na stronie (grafiki, treści, video). Wysokie wartości LCP wskazują na problemy z wydajnością, które mogą wpływać na satysfakcję użytkownika. First Input Delay (FID): FID mierzy czas od momentu interakcji użytkownika ze stroną (np. kliknięcie przycisku), do momentu odpowiedzi na tę akcję. Wysoki FID może być frustrujący dla użytkowników, którzy oczekują natychmiastowej reakcji na swoje działania. Cumulative Layout Shift (CLS): CLS odnosi się do przesunięć elementów strony. Niezwiązane z intencją użytkownika przesunięcia elementów mogą być irytujące, prowadzić do przypadkowych kliknięć, a w konsekwencji do opuszczenia strony. Pamiętaj, że wszystkie te metryki są ściśle powiązane z doświadczeniem użytkownika. Im szybciej strona ładuje się i reaguje na interakcje, tym lepsze wrażenie robi na użytkownikach, co z kolei wpływa na SEO. Optymalizacja metryk wydajności Optymalizacja wymienionych metryk wydajności jest bardzo istotna. Pierwszym krokiem powinno być znalezienie i zrozumienie przyczyny problemów z wydajnością. Kolejny krok to podjęcie odpowiednich działań. Oto kilka strategii, które mogą pomóc: Optymalizacja obrazów: Duże, ciężkie obrazy mogą spowolnić ładowanie strony. Warto kompresować obrazy, używać formatów obrazów nowej generacji, takich jak WebP, zastosować technikę ładowania leniwego (lazy loading). Optymalizacja kodu: Usuwanie niepotrzebnego kodu, optymalizacja plików CSS i JavaScript oraz optymalizacja porządku ładowania zasobów mogą przyspieszyć ładowanie strony. Unikanie dużej ilości reklam: Zbyt wiele reklam na stronie może spowolnić jej ładowanie i wpływać na metryki, takie jak CLS. Optymalizacja serwera: Wysokiej jakości, zaufany serwer to kolejny krok do sprawnie działającej witryny. Narzędzia do pomiaru wydajności strony Istnieje wiele narzędzi, które pomagają mierzyć wydajność strony. Są to: Google PageSpeed Insights to narzędzie od Google, które analizuje wydajność strony i daje sugestie dotyczące optymalizacji. Lighthouse to otwarte narzędzie do testowania wydajności, dostępności i innych aspektów stron internetowych. WebPageTest to kolejne popularne narzędzie, które pozwala na szczegółową analizę wydajności strony. Podsumowanie Pozycjonowanie stron jest skomplikowanym procesem, który obejmuje wiele czynników. Działania on-page, off-page, wydajność strony, np. FCP, wszystko to ma wpływ na to, jak strona oceniana jest przez roboty i przez użytkowników. Pamiętaj, że SEO to proces ciągły. Wymaga regularnego monitorowania i optymalizacji, aby strona pozostała konkurencyjna. Korzystanie z narzędzi do mierzenia wydajności strony może pomóc w zrozumieniu, jak strona działa i jakie elementy wymagają poprawy. « powrót do artykułu -
W prywatnej kolekcji w Wielkiej Brytanii odkryto jakiś czas temu nieznaną parę portretów pędzla Rembrandta. Obrazy przedstawiają osoby z jego najbliższego kręgu. Mają zostać sprzedane na początku lipca przez dom aukcyjny Christie's. Szacuje się, że cena może sięgnąć 5-8 mln funtów (6,25-10 mln dol.). Dzieła są sygnowane i datowane na 1635 r. Przedstawiają mieszkańców Lejdy - hydraulika Jana Willemsz. van der Pluyma (ok. 1565-1644) i jego żonę Jaapgen Carels (1565-1640). Majętni mieszczanie byli powiązani z rodziną Rembrandta przez małżeństwo syna. W 1635 r., gdy powstały portrety, van der Pluymowie kupili ogród położony obok ogrodu matki Rembrandta. Należeli do bardzo bliskiego otoczenia mistrza. Opisywane portrety możemy [więc] postrzegać raczej jako osobiste dokumenty niż formalne zamówienia - powiedział Washington Post Henry Pettifer, ekspert od dawnych mistrzów domu aukcyjnego Christie's. Niesamowite jest to, że obrazy te były zupełnie nieznane. Nie wspominano o nich w XIX-XX-w. literaturze nt. Rembrandta - dodał specjalista w wywiadzie dla CNN-u. Ich niewielkie rozmiary, a także intymna natura sugerują, że uwiecznionych ludzi łączyła z malarzem bliska relacja. Sądzę, że to najmniejsze znane nam portrety pędzla Rembrandta [mierzą 19,9x16,5 cm]. Jak podkreślono w komunikacie domu aukcyjnego, portrety pozostawały w rodzinie modeli do 1760 r.; po śmierci ich praprawnuka Martena ten Hove (1683-1759) zostały sprzedane na aukcji w Amsterdamie. Trafiły do Warszawy, do kolekcji hrabiego Wincentego Potockiego. Później w ich posiadanie weszli kolejno baron d'Ivry i pierwszy baron Glenlyon James Murray. Ten ostatni wystawił obrazy na sprzedaż w Christie's (aukcja odbyła się 18 czerwca 1824 r., a wizerunki opatrzono następującym opisem: „Rembrandt – wyjątkowo porywający, z pięknymi barwami”). Od tej pory dzieła przez niemal 200 lat należały do tej samej brytyjskiej rodziny. Pettifer wyjaśnił mediom, że odkryto je przypadkowo parę lat temu, podczas rutynowej oceny wyposażenia domu. Ekspert przyjrzał się zbiorom rodzinnym podczas pandemii. Ujawnił, że choć właścicielom obrazy się podobały, nie byli pewni, czy to Rembrandt i nigdy się tym specjalnie nie interesowali. Później autentyczność portretów potwierdzili specjaliści z Rijksmuseum. Przed aukcją będzie je można zobaczyć w Nowym Jorku, Amsterdamie i oczywiście Londynie. « powrót do artykułu
-
- para portretów
- obrazy
- (i 7 więcej)
-
Ponad połowa największych jezior na świecie traci wodę, wynika z badań przeprowadzonych przez międzynarodowy zespół naukowy z USA, Francji i Arabii Saudyjskiej. Przyczynami tego stanu rzeczy są głównie globalne ocieplenie oraz niezrównoważona konsumpcja przez człowieka. Jednak, jak zauważają autorzy badań, dzięki opracowanej przez nich nowej metodzie szacunku zasobów wody, trendów oraz przyczyn jej ubywania, można dostarczyć osobom odpowiedzialnym za zarządzanie informacji, pozwalającymi na lepszą ochronę krytycznych źródeł wody. Przeprowadziliśmy pierwsze wszechstronne badania trendów oraz przyczyn zmian ilości wody w światowych jeziorach, wykorzystując w tym celu satelity oraz modele obliczeniowe, mówi główny autor badań, Fangfang Yao z Uniwersytetu Kalifornijskiego w Boulder (CU Boulder). Mamy dość dobre informacje o słynnych jeziorach, jak Morze Kaspijskie, Jezioro Aralskie czy Salton Sea, jeśli jednak chcemy dokonać szacunków w skali globalnej, potrzebujemy wiarygodnych informacji o poziomie wód i objętości jeziora. Dzięki tej nowej metodzie możemy szerzej spojrzeć na zmiany poziomu wód jezior w skali całej planety, dodaje profesor Balaji Rajagopalan z CU Boulder. Naukowcy wykorzystali 250 000 fotografii jezior wykonanych przez satelity w latach 1992–2020. Na ich podstawie obliczyli powierzchnię 1972 największych jezior na Ziemi. Użyli też długoterminowych danych z pomiarów poziomu wód z dziewięciu satelitów. W przypadku tych jezior, co do których brak było danych długoterminowych, wykorzystano pomiary wykorzystane za pomocą bardziej nowoczesnego sprzętu umieszczonego na satelitach. Dzięki połączeniu nowych danych z długoterminowymi trendami byli w stanie ocenić zmiany ilości wody w jeziorach na przestrzeni kilku dziesięcioleci. Badania pokazały, że 53% największych jezior na świecie traci wodę, a jej łączny ubytek jest 17-krotnie większy niż pojemność największego zbiornika na terenie USA, Lake Meads. Wynosi zatem około 560 km3 wody. Uczeni przyjrzeli się też przyczynom utraty tej wody. W przypadku około 100 wielkich jezior przyczynami były zmiany klimatu oraz konsumpcja przez człowieka. Dzięki tym badaniom naukowcy dopiero teraz dowiedzieli się, że za utratą wody w jeziorze Good-e-Zareh w Afganistanie czy Mar Chiquita w Argentynie stoją właśnie takie przyczyny. Wśród innych ważnych przyczyn naukowcy wymieniają też odkładanie się osadów. Odgrywa ono szczególnie ważną rolę w zbiornikach, które zostały napełnione przed 1992 rokiem. Tam zmniejszanie się poziomu wody jest spowodowane głównie zamuleniem. Podczas gdy w większości jezior i zbiorników wody jest coraz mniej, aż 24% z nich doświadczyło znacznych wzrostów ilości wody. Są to głównie zbiorniki znajdujące się na słabo zaludnionych terenach Tybetu i północnych części Wielkich Równin oraz nowe zbiorniki wybudowane w basenach Mekongu czy Nilu. Autorzy badań szacują, że około 2 miliardów ludzi mieszka na obszarach, gdzie w zbiornikach i jeziorach ubywa wody, co wskazuje na pilną potrzebę uwzględnienia takich elementów jak zmiany klimatu, konsumpcja przez człowieka czy zamulanie w prowadzonej polityce. Jeśli na przykład konsumpcja przez człowieka jest ważnym czynnikiem prowadzącym do utraty wody, trzeba wprowadzić mechanizmy, które ją ograniczą, mówi profesor Ben Livneh. Uczony przypomina jezioro Sevan w Armenii, w którym od 20 lat poziom wody rośnie. Autorzy badań łączą ten wzrost z wprowadzonymi i egzekwowanymi od początku wieku przepisami dotyczącymi sposobu korzystania z wód jeziora. « powrót do artykułu
-
Aktywność fizyczna zmniejsza krwotok śródmózgowy
KopalniaWiedzy.pl dodał temat w dziale Zdrowie i uroda
Regularna aktywność fizyczna może zmniejszyć krwawienie do mózgu u osób z krwotokiem śródmózgowym. Do takich wniosków doszli naukowcy z Uniwersytetu w Göteborgu, którzy przeprowadzili badania retrospektywne na 686 osobach leczonych z powodu krwotoku śródmózgowego. Uczeni nie byli w stanie określić związku przyczynowo-skutkowego zaobserwowanego zjawiska, ale jednoznacznie wykazali, że u osób aktywnych fizycznie krwotok był mniejszy, niż u nieaktywnych. Za aktywnie fizycznego uczestnika badań uznawano osobę, która angażowała się w co najmniej lekką aktywność fizyczną polegającą na spacerowaniu, jeżdżeniu na rowerze, pływaniu, uprawianiu ogrodu czy tańczeniu przez co najmniej 4 godziny tygodniowo. Zauważyliśmy, że u osób angażujących się w regularną aktywność fizyczną objętość krwiaka w chwili przyjęcia do szpitala średnio o 50% mniejsza, niż u osób nieaktywnych. Wcześniej zauważono takie zjawisko u zwierząt, ale nie u ludzi, mów główny autor badań, doktorant Adam Viktorisson. Krwotok śródmózgowy może być bardzo niebezpieczny. Dlatego osoby trafiające do szpitala z jego objawami są badane za pomocą tomografu komputerowego. Czasem wymagana jest interwencja chirurgiczna, jednak w większości przypadków wystarczy zastosowanie odpowiednich leków. Odkrycie dokonane przez naukowców z Göteborga dotyczy wszelkich rodzajów krwotoków śródmózgowych, niezależnie od ich lokalizacji. Aktywni fizycznie pacjenci mieli mniejsze krwiaki zarówno w przypadku krwotoków w głębszych regionach mózgu, często powodowanych przez wysokie ciśnienie krwi, jak i przy powierzchni, gdzie krwotoki łączy się ze związanymi z wiekiem schorzeniami jak demencja. Profesor Katharina Stibrant Sunnerhagen mówi, że badania te to dobry punkt wyjścia do lepszego poznania związku pomiędzy krwotokiem śródmózgowym a aktywnością fizyczną. Mamy nadzieję, że nasza praca pozwoli lepiej zrozumieć krwotok śródmózgowy i opracować lepsze metody zapobiegania temu schorzeniu. « powrót do artykułu -
Po 10 latach pionierskiej pracy naukowcy z amerykańskiego SLAC National Accelerator Laboratory ukończyli wykrywacze ciemnej materii SuperCDMS. Dwa pierwsze trafiły niedawno do SNOLAB w Ontario w Kanadzie. Będą one sercem systemu poszukującego dość lekkich cząstek ciemnej materii. Urządzenia mają rejestrować cząstki o masach od 1/2 do 10-krotności masy protonu. W tym zakresie będzie to najbardziej czuły na świecie wykrywacz ciemnej materii. Twórcy detektorów mówią, że przy ich budowie wiele się nauczyli i stworzyli wiele interesujących technologii, w tym elastyczne kable nadprzewodzące, elektronikę działającą w ekstremalnie niskich temperaturach czy lepiej izolowane systemy kriogeniczne, dzięki czemu całość jest znacznie bardziej czuła na ciemną materię. A dodatkową zaletą całego eksperymentu jest jego umiejscowienie 2 kilometry pod ziemią, co pozwoli na wyeliminowanie znaczniej części zakłóceń ze strony promieniowania kosmicznego. SNOLAB i SuperCDMS są dla siebie stworzone. Jesteśmy niesamowicie podekscytowani faktem, że detektory SuperCDMS mają potencjał, by bezpośrednio zarejestrować cząstki ciemnej materii i znacząco zwiększyć nasza wiedzę o naturze wszechświata, mówi Jodi Cooley, dyrektor SNOLAB. Zrozumienie ciemnej materii to jedno z najważniejszych zadań nauki, dodaje JoAnne Hewett ze SLAC. Wiemy, że materia widzialna stanowi zaledwie 15% wszechświata. Cała reszta to ciemna materia. Jednak nikt nie wie, czym ona jest. Wiemy, że istnieje, gdyż widzimy jej oddziaływanie grawitacyjne z materią widzialną. Jednak poza tym nie potrafimy jej wykryć. Eksperyment SuperCDMS SNOLAB to próba zarejestrowania cząstek tworzących ciemną materię. Naukowcy chcą w nim wykorzystać schłodzone do bardzo niskich temperatur kryształy krzemu i germanu. Stąd zresztą nazwa eksperymentu – Cryogenic Dark Matter Search (CDMS). Uczeni mają nadzieję, że w temperaturze o ułamek stopnia wyższej od zera absolutnego uda się zarejestrować wibracje kryształów powodowane interakcją z cząstkami ciemnej materii. Takie kolizje powinny zresztą wygenerować pary elektron-dziura, które – przemieszczając się w krysztale – wywołają kolejne wibracje, wzmacniając w ten sposób sygnał. Żeby jednak tego dokonać, detektory muszą zostać odizolowane od wpływu czynników zewnętrznych. Dlatego też eksperyment będzie prowadzony w SNOLAB, laboratorium znajdującym się w byłej kopalni niklu, ponad 2000 metrów pod ziemią. Stopień trudności w przeprowadzeniu tego typu eksperymentów jest olbrzymi. Nie tylko bowiem konieczne było stworzenie nowatorskich wykrywaczy, co wymagało – jak już wspomnieliśmy – 10 lat pracy. Wyzwaniem był też... transport urządzeń. Aby chronić je przed promieniowaniem kosmicznym, należało jak najszybciej dostarczy je z USA do Kanady. Oczywiście na myśl przychodzi przede wszystkim transport lotniczy. Jednak im wyżej się wzniesiemy, tym cieńsza warstwa atmosfery nas chroni, zatem tym więcej promieniowania kosmicznego do nas dociera. Wybrano więc drogę lądową, ale... naokoło. Pomiędzy Menlo Park w Kalifornii, gdzie powstały wykrywacze, a kanadyjską prowincją Ontario znajdują się Góry Skaliste. Ciężarówka z wykrywaczami musiałaby więc wjechać na sporą wysokość nad poziomem morza, co wiązałoby się z większym promieniowaniem docierającym do detektorów. Dlatego też jej trasa wiodła na południe, przez Teksas. Już następnego dnia po dotarciu do Ontario urządzenia zostały opuszczone pod ziemię, gdzie czekają na instalację. Jeszcze w bieżącym roku do Kanady trafią kolejne SuperCDMS, a wstępne przygotowania do uruchomiania laboratorium mają zakończyć się w 2024 roku. Naukowcy mówią, że po 3-4 latach pracy laboratorium powinno zebrać na tyle dużo danych, że zdobędziemy nowe informacje na temat ciemnej materii. « powrót do artykułu
-
X. truncata – pierwszy znany nam płaz zapylający?
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
Zapylacze to w naszej świadomości przede wszystkim owady, głównie pszczoły czy trzmiele, chociaż ważną rolę odgrywają również motyle, w tym ćmy. Czasami przypomnimy sobie, że w innych strefach klimatycznych zapylaczami są również ptaki. Z Brazylii nadeszła właśnie informacja o możliwym odkryciu niezwykłego zapylacza. Może nim być Xenohyla truncata z rodziny rzekotkowatych. Jeśli dalsze badania potwierdzą przypuszczenia naukowców, będzie to pierwszy znany nam płaz zapylający. W grudniu 2020 roku naukowcy z Universidade Federal de Mato Grosso oglądali w pobliżu miasta Armação dos Búzios grupę nadrzewnych Xenohyla truncata jedzących owoce. Wcześniejsze badania żołądków okazów znajdujących się w zbiorach muzealnych pokazało, że jest to jeden z niewielu płazów żywiących się owocami. W pewnym momencie naukowcy zauważyli, że jedno ze zwierząt weszło do wnętrza kwiatu, by pożywić się nektarem, a gdy wyszło, do jego grzbietu przyczepiony był pyłek. Uczeni przypominają, że dotychczas fotografowano płazy na kwiatach, ale nigdy nie zaobserwowano interakcji pomiędzy zwierzęciem a kwiatem. Zaobserwowane zjawisko dało silne podstawy do wysunięcia hipotezy, że Xenohyla truncata może być pierwszym znanym płazem zapylającym. Jednoznaczne potwierdzenia tego przypuszczenia wymaga jednak dalszych badań. Specjaliści mówią, że konieczna będzie obserwacja kwiatów za pomocą kamer lub ustawienie przy niektórych kwiatach barier, by sprawdzić, czy odnoszą one mniejszy sukces reprodukcyjny, gdy płazy nie mają do nich dostępu. Konieczne jest też sprawdzenie, czy pyłek przyczepiający się do grzbietu Xenohyla truncata nie ulega uszkodzeniu, czy rzeczywiści jest on następnie pozostawiany w innych kwiatach i czy wizyty płazów w kwiatach mają widoczny wpływ na reprodukcję drzew. Jeśli potwierdzi się, że X. truncata zapyla drzewa, będzie to kolejny dowód, jak mało wiemy o środowisku naturalnym. Dopiero w ostatnich latach odkryliśmy, że rośliny są zapylane przez jaszczurki, oposy, szczury czy karaluchy. Xenohyla truncata to gatunek zagrożony, ludzie w coraz większym stopniu niszczą ich środowisko naturalne osiedlając się w pobliżu terenów zajętych przez te zwierzęta. A bliskość ludzkich osiedli oznacza, że płazy padają ofiarami kotów, a gdy wejdą do domu, są często zabijane. Tymczasem być może jest to jedyny na świecie płaz zapylający. Jeśli więc stracimy ten gatunek, stracimy też unikatową ekologiczną interakcję zachodząca pomiędzy płazami a roślinami, mówi biolog Carlos Henrique de-Oliveira-Nogueira. Opisujący badania artykuł Between fruits, flowers and nectar: The extraordinary diet of the frog Xenohyla truncata został opublikowany na łamach Food Webs. « powrót do artykułu-
- Xenohyla truncata
- płaz
-
(i 2 więcej)
Oznaczone tagami:
-
Wraz z rozwojem coraz doskonalszych generatorów tekstu, takich jak ChatGPT, coraz częściej pojawiają się głosy o potrzebie opracowania metod wykrywania tekstów stworzonych przez sztuczną inteligencję. Metody takie przydałyby się nauczycielom czy wykładowcom akademickim, którzy mogliby identyfikować prace pisemne przyniesione przez nieuczciwych uczniów i studentów, przedstawiających wygenerowany przez komputer tekst jako własne dzieło. Mówi się o kursach z wykrywania oszustw i o tworzeniu odpowiednich narzędzi. Takie narzędzia – bazujące na sztucznej inteligencji – już powstają. Problem w tym, że nie są one zbyt wiarygodne. Naukowcy z Uniwersytetu Stanforda przyjrzeli się kilku algorytmom sztucznej inteligencji, które mają określać, czy zaprezentowany tekst został stworzony przez człowieka czy też przez inną sztuczną inteligencję. O ile jednak takie algorytmy sprawdzają się „niemal doskonale” podczas analizy tekstów pisanych przez 13-14-latków urodzonych w USA, to już zawodzą tam, gdzie mają do czynienia z angielskim tekstem napisanym przez osobę, dla której angielski nie jest językiem ojczystym. Okazało się bowiem, że gdy systemy te miały ocenić, kto jest autorem tekstu napisanego w ramach egzaminu TOEFL (Test of English as a Foreign Language), w aż 61,22% uznały, że to SI stworzyła tekst, który został napisany przez człowieka. W rzeczywistości jest jednak jeszcze gorzej. Aż 19% prac napisanych przez nastolatków, dla których angielski nie jest językiem ojczystym, zostało uznanych za stworzone przez SI przez wszystkie 7 badanych narzędzi do wykrywania fałszywek. A aż 97% napisanych przez ludzi prac zostało uznane za fałszywe przez co najmniej jeden z systemów. Problem tkwi tutaj w sposobie pracy systemów wykrywających tekst napisany przez Si. Opierają się one bowiem na złożoności użytego języka. Oczywistym jest, że przeciętna osoba, która nie jest rodzimym użytkownikiem języka angielskiego ma mniejszy zasób słownictwa, a tworzone przez nią zdania są prostsze pod względem gramatycznym i składniowym od zdań rodzimego użytkownika angielskiego. Sztuczna inteligencja, próbując wykryć fałszywki, uznaje ten niższy poziom złożoności za znak, że tekst został stworzony przez sztuczną inteligencję. To poważny problem, gdyż uczeń czy student, który urodził się poza USA, może w ten sposób zostać uznany przez nauczyciela za oszusta, mimo że sam napisał pracę. Co więcej, naukowcy ze Stanforda zauważyli, że takie systemy łatwo jest oszukać nawet rodzimemu użytkownikowi angielskiego. Okazuje się bowiem, że wystarczy wygenerować tekst za pomocą ChataGPT, a następnie wydać maszynie polecenie, by poprawiła ten tekst dodając doń słownictwo literackie. Obecne wykrywacze są niewiarygodne i łatwo je oszukać, dlatego też należy używać ich bardzo ostrożnie w roli remedium na oszukiwanie za pomocą sztucznej inteligencji, mówi jeden z autorów badań, profesor James Zou. Uczony uważa, że w najbliższej przyszłości nie należy ufać takim wykrywaczom, szczególnie w tych szkołach i uczelniach, gdzie mamy dużo uczniów, dla których angielski nie jest językiem macierzystym. Po drugie, twórcy narzędzi do wykrywania muszą zrezygnować ze złożoności jako głównego wyznacznika analizy tekstu i opracować bardziej zaawansowane techniki. Ponadto ich systemy powinny być bardziej odporne na obejście. Być może rozwiązanie problemu leży po stronie twórców takich systemów jak ChatGPT. Zou sugeruje, że tego typu generatory mogłyby dodawać do tekstu rodzaj znaku wodnego, którym byłyby subtelne sygnały, oczywiste dla systemów wykrywających, stanowiące niejako podpis generatora i wskazujące, że to on jest autorem. « powrót do artykułu