Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36754
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    207

Odpowiedzi dodane przez KopalniaWiedzy.pl


  1. Niedokrwistość (anemia) → stan charakteryzujący się obniżeniem stężenia hemoglobiny w jednostce objętości krwi poniżej normy, w zależności od wieku i płci.

    Normy:

    K: 11 – 15 g/dl
    M: 12 – 17 g/dl

    Różna patogeneza, poziom żelaza, wielkość RBC, leczenie, ale cecha wspólna: niedotlenienie tkanek (hipoksja). Bladość, zmęczenie, osłabienie, omdlenia, bóle głowy, bóle zawałowe, męczliwość. Metody kompensacji w organizmie: tachykardia, tachypnoe.

    1. Anemia z niedoboru żelaza:

    Niedobór żelaza (asyderoza tkankowa):

    - wypadanie włosów
    - pękanie kącików ust
    - słabe paznokcie

    Etiologia i badania lab.:

    - nieprawidłowa produkcja hemoglobiny (porfiryny)
    - mała objętość RBC (mikrocytoza) i niskie wysycenie Hb (niskie MCH)
    - < Hb, < RBC, < MCV, < MCH, <HCT, > RET (+ > PLT świadczy o przewlekłym krwawieniu!!)
    - erytrocyty słabo wypełnione, więc małe, niedobarwliwe,
    - przy włączeniu leczenia: > RET

    Przyczyny:

    - słaba podaż żelaza
    - zaburzenia wchłaniania
    - zwiększone zapotrzebowanie (ciąża, laktacja, szybki wzrost)
    - utrata krwi

    Leczenie → trzeba odnaleźć przyczynę! Bo może to być mała podaż, ale może też być np. rak żołądka

    Drogi utraty żelaza:

    - krwawienie z przewodu pokarmowego → przepuklina, nadżerki, zapalenie śluzówki, nowotwory, CU, biegunki, zaparcia, hemoroidy
    - miesiączka, mięśniaki macicy
    - z dróg moczowych – stany zapalne, nowotwory, polipy, zapalenie kłębuszków (hematuria)

    Tkankowy niedobór żelaza:

    - słabe włosy, siwienie, słabe paznokcie
    - pękanie kącików ustępuje
    - zapalenie języka, dysfagia
    - dystonia hemowegetatywna
    - hypochromia, mikrocytoza, anizocytoza, poikilocytoza
    - blade śluzówki, skóra
    - paznokcie o łyżeczkowatym kształcie

    Fazy niedoboru żelaza:

    1. Zubożenie magazynów żelaza – mniej Fe w makrofagach, wątrobie i szpiku, obniżona ferrytyna. Wtedy parametry krwinkowe w morfo są jeszcze w normie
    2. Niedobór odzwierciedla się w erytropoezie, wyczerpanie magazynów Fe, mikrocytoza (przebiega powoli)
    3. Duże obniżenie Fe w magazynach, surowicy, wszędzie, parametry krwinkowe niskie

    2. Anemia chorób przewlekłych (ACD):

    Trzeba znaleźć przyczynę: jaka jest choroba podstawowa?

    Rozwija się wtórnie do chorób przewlekłych (przewlekły proces zapalny lub nowotworowy, choroby autoimmunologiczne, np. RZS, ropnie, zakażenia).

    Etiologia:

    1. Obniżona reaktywność tkanek na erytropoetynę
    2. Skrócony czas przeżycia RBC
    3. Nieprawidłowe uwalnianie Fe z magazynów

    W wyniku toczącego się procesu zapalnego w organizmie makrofagi i limfocyty zwiększają wytwarzanie cytokin, które substancje stymulują syntezę białek ostrej fazy - apoferrytyny, laktoferyny. Apoferrytna, wiążąc jony żelaza, utrudnia zarówno wykorzystanie Fe do syntezy hemoglobiny, jak i jego wydalanie z organizmu.

    Konsekwencja → przeładowanie ustroju Fe, prowadzące do zmniejszenia syntezy transferryny i spadku liczby receptorów dla niej na powierzchni erytroblastów. Ponadto cytokiny hamując uwalnianie erytropoetyny (hormon stymulujący różne etapy erytropoezy), nasilają zaburzenie wytwarzania prekursorów czerwonokrwinkowych, czego objawem jest hipoplazja układu czerwonokrwinkowego w szpiku. Niedokrwistość rozwija się kilka miesięcy po ujawnieniu choroby podstawowej.

    Charakterystyka:

    - tkanki zmienione zapalnie są impregnowane żelazem (ferrytyna tankowa – pułapka ferrytynowa)
    - gorączka, wychudzenie, osłabienie
    - MCV i MCH w normie (normobarwliwa, normocytarna)

    Objawy:

    - jak w anemii (bladość, zmęczenie, osłabienie, omdlenia, bóle głowy, bóle zawałowe, męczliwość)
    - dodatkowo objawy choroby podstawowej
    - w badaniach lab: obniżona transferryna, Fe, TIBC

    Leczenie:

    - w organizmie jest żelazo, więc nie podajemy → leczymy stan zapalny (przyczynę), a żelazo się samo uwolni z tkanek
    - ew. można przetoczyć krew/podać EPO

    3. Anemia z niedoboru B12:

    - zwykle kobiety chorują, bo jest autoimmunologiczna, a kobiety częściej chorują na takie choroby
    - głównie u starszych
    - atrofia śluzówki żołądka
    - autoagresja: nacieki limfoidalne do tkanek (widoczne w badaniu histopatologicznym śluzówki) i zapalenie korzonków tylnych rdzenia
    - przeciwciała p/czynnikowi Castle'a komórek okładzinowych, które produkują również Hcl (więc będzie achlorhydia histaminorezystentna)
    - czynnik Castle'a jest niezbędny do wchłaniania witaminy B12, bez niego przejdzie w całości do stolca
    - kompleksy czynnik Castle'a-B12 wchłaniają się w jelicie grubym
    - witamina B12 jest potrzebna do syntezy nukleotydów → spowodowana przez nieprawidłową lub upośledzoną syntezę DNA, co prowadzi do makrocytozy. Upośledzona kondensacja chromatyny, opóźnione dojrzewanie cytoplazmy, luźna chromatyna, komórki ulegają mniejszej ilości podziałów i są większe
    - > MCV (tzw. anemia megaloblastyczna)
    - < RET, po leczeniu witaminą B12 > RET

    Test Schillinga:

    - polega na podaniu znakowanej witaminy B12 i zbadaniu promieniowania w stolcu
    - jeśli 100% → to witamina się w ogóle nie wchłania

    Anemia złośliwa:

    - ponieważ powodowala śmierć z niedotlenienia
    - podaje się witaminę B12 dożylnie (podawano wyciąg z wątroby)

    Anemia Addisona-Biermera:

    - choroba autoimmunologiczna
    - autoprzeciwciala przeciwko komórkom okładzinowym, przyczyna żołądkowo-jelitowa, a nie hematologiczna
    - objawy: bladość, zażółcenie skóry, zaczerwieniony język, zaburzenia trawienia, biegunki, infekcje, objawy neurologiczne, zapalenie powrózków nerwowych (parestezje, zaburzenia równowagi, zaburzenia psychiczne) → „szaleństwo megaloblastyczne”

    Leczenie:
    - podawanie dożylnie witaminy B12

    4. Hemolityczna (AH):

    Jest spowodowana skróconym czasem przeżycia erytrocytów w wyniku hemolizy.

    Objawy:
    - żółtaczka powłok i śluzówek bez świądu (wzrost bilirubiny)
    - powiększenie śledziony (dyskomfort w lewym podżebrzu)

    Etiologia:

    - RBC ulegaja hemolizie, bo przestaje działać pompa Na-K, np. przez niedobór enzymów
    - wrodzona → że jest od dzieciństwa w wywiadzie. Może być czynnik wyzwalający, np. wirus (powoduje załamanie tolerancji immunologicznej i działanie na własne RBC):

    eliptocytoza

    wrodzona sferocytoza → anemia Schofarda-Minkowskiego (gotyckie podniebienie i wieżowata czaszka, defekt enzymatyczny, RBC bardzo wrażliwe na niedotlenienie, rozpadają się w śledzionie, usunięcie śledziony to leczenie z wyboru

    wrodzone hemoglobinopatie

    wrodzony niedobór enzymów, np. G-6-PG

    - nabyta → od kiedy i co mogło spowodować?

    nocna napadowa hemoglobinuria → nabyty defekt błony RBC i atak komplementu dopełniacza na nią; do jej diagnostyki stosuje się próbę Hama

    autoimmunologiczna

    polekowa

     Charakterystyka:
    - normocytoza, normobarwliwa
    - podwyższone retikulocyty

    Leczenie:

    - przetoczenie KKCz
    - glikokortykosteroidy
    - usunięcie śledziony (leczenie z wyboru)

    5. Aplastyczna (AP):

    Objawy:

    - małopłytkowa skaza krwotoczna (wybroczyny na skórze)
    - objawy anemii
    - stany zapalne (przez < WBC)
    - niepowiększona śledziona

    W badaniach:

    - pancytopenia
    - ubogokomórkowy szpik kostny (hematopoeza np. 5%)
    - > Fe w surowicy
    - zmniejszone wytwarzanie komórek w szpiku
    - normocytowa, normobarwliwa

    Etiologia:

    - aplazja szpiku
    - wrodzona
    - nabyta:

    leki (polipragmazja), nadwrażliwość na leki (idiosynkrazja), leki mielotoksyczne (p/bólowe, p/tarczycowe, psychiatryczne, p/reumatoidalne, niektóre antybiotyki)

    toksyny

    choroby autoimmunologiczne i reumatyczne

    promieniowanie RTG

    idiopatycznie

    Leczenie:
    - przeszczep szpiku kostnego → z wyboru
    - leczenie immunosupresyjne
    - hematopoetyczne czynniki wzrostu


    « powrót do artykułu

  2. Choroby tarczycy zaliczają się do najczęstszych zaburzeń hormonalnych człowieka. W celu przeprowadzenia właściwej diagnozy są niezbędne badania laboratoryjne. Tarczyca wytwarza hormon tyroksynę i tróijodotroninę. W praktyce klinicznej dzisiejsza diagnostyka biochemiczna opiera się na wysokoczułych metodach oznaczeń TSH oraz czułych metodach oznaczania wolnej tyroksyny i wolnej trijodotyroniny. Podstawowym testem diagnostycznym do rozpoznawania zaburzeń tarczycy jest ocena stężenia TSH w surowicy. Należy pamiętać, że na stężenia TSH, fT4 T3 fT3 poza stanem czynnościowym tarczycy, wpływają min: wiek, płeć, stan odżywienia, podaż jodu, pojemność białek transportujących hormony tarczycy, palenie tytoniu, ciąża, ciężkie choroby ogólnoustrojowe oraz niskie stężenia hormonów.

    Poniżej znajduje się wykaz ksenobiotyków oraz leków, które wpływają na oznaczenia parametrów tarczycy oraz metody.

    TSH zwiększające stężenie TSH stosowane Antagoniści receptorów dopaminergicznych:
    chloropromazyna, haloperidol, sulpiryd
    metoclopramide, domperidon do leczenia depresji oraz mają działanie
    uspokajającym Epinefryna przy resuscytacji krążeniowo-oddechowa
    w przypadku zatrzymania krążenia
    niezależnie od mechanizmu, nasilonej
    reakcji i wstrząsu anafilaktycznego, napadu
    astmy oskrzelowej, ciężkiej bradykardii,
    wstrząsie kardiogennym. Teofilina do leczenia astmy oskrzelowej i przewlekłej
    obturacyjnej choroby płuc Zmniejszające stężenie TSH   Lewodopa w chorobie Parkinsona Alfa-adrenolityki (adrenalina, noradrenalina,
    midodryna, fenylefryna) przy zatrzymaniu akcji serca, arytmii, we
    wstrząsie anafilaktycznym Hormon wzrostu niedobory hormonu wzrostu Euthyrox stosowany rutynowo przy leczeniu
    nadczynności tarczycy

     Hormony tarczycy (HT)- stężenie całkowite i frakcja wolna


    Leki nasilające syntezęLeki hamujące syntezę lub wydzielanie Związki organiczne zawierające jod: jodowe
    środki kontrastujące, amiodaron, związki organiczne zawierające jod Związki nieorganiczne: płyn Lugola, nasycony
    roztwór jodku potasu Lit (stosowany w leczeniu nastroju) Glikokortykosteroidy Sulfonamidy (w leczeniu nadciśnienia) Propranolol (lek stosowany przy nadciśnieniu i
    arytmii) Fenytoina (lek o działaniu
    przeciwdrgawkowym i przeciwarytmicznym)   Fenobarbital (lek o działaniu nasennym
    i uspokajającym)   Niedobory białkowe ( głód. leczenie
    głodówką, choroby jelit upośledzające
    przyswajanie białka przez organizm )

     

    Metody stosowane do oznaczeń TSH: Immunometryczna IMA Wśród przeciwciał heterofilnych wyróżnia
    się dwie klasy: przeciwciała polireaktywne
    np. czynnik reumatoidalny z klasy IgM oraz
    przeciwciała powstałe w wyniku infekcji
    bądź kontaktu z antygenem zwierzęcym Immunoenzymatyczna EIA ELISA Immunofloromeryczna FIA Immunochemiluminescencyjna LIA Radioizotopowe Reakcje krzyżowe z FSH LH i hcG
    powodujące wzrost TSH Metody kompetycyjne z użyciem biotyny Nadmiar biotyny w surowicy krwi powoduje
    wysycenie miejsc wiążących na
    streptawidynie, co powoduje niemożność
    przyłączenia kompleksu biotynylowany
    analit-przeciwciało

     

    Inne czynniki zaburzające wyniki: Rozcieńczenie surowicy Redystrybujca hormonów z frakcji
    związanej do wolnej Heparyna Stosowana jako antykoagulant lub w
    leczeniu zakrzepicy

    Przedstawione ksenobiotyki istotnie wpływają na prawidłowy obraz czynności tarczycy. Można zauważyć fakt, że jeśli pacjent posiada choroby współistniejące to ważnym elementem jest poinformowanie “pobierającego” o przyjmowanych lekach. Każde interferencje ze strony niewłaściwego przygotowania pacjenta, próbki a nawet dobrania metody będą powodować, iż wyniki będą fałszywie dodatnie bądź fałszywie ujemnie.

    Bibliografia :

    Jak interpretować wyniki badań H Woschnagg, W. Exel wyd. Biblioteczka Zdrowia
    Diagnostyka laboratoryjna z elementami biochemii klinicznej pod redakcją Aldona Dembińska-Kieć, Jerzy W. Naskalski, Bogdan Solnica wyd. IV rozdział dot. Diagnostyki laboratoryjnej chorób gruczołów wydzielania wewnętrznego


    « powrót do artykułu

  3. Zachorowalność na większość nowotworów systematycznie wzrasta. Diagnostyka i leczenie wiążą się z olbrzymimi kosztami leczenia i cierpieniem. Dlatego tak ważna jest prewencja i wczesne wykrywanie nowotworów. [1]

    Chemoprewencja to jedna z nauk zajmujących się zapobieganiem zachorowaniom na nowotwory złośliwe. Podstawowym założeniem jest to, że leczenie na wczesnym etapie może zatrzymać proces karcinogenezy. Związki chemoprewencyjne wykazują mało skutków ubocznych, charakteryzują się niską toksycznością, zdolnością unieszkodliwienia procesów prowadzących do powstania komórek nowotworowych. Każdy ze związków działa na innym etapie, blokując uszkodzenie DNA, białek czy lipidów.  Ponadto, większość poznanych dotąd związków chemoprewencyjnych to naturalne ekstrakty roślinne, które są powszechnie dostępne.

    Obecnie prowadzone są badania nad występowaniem związków, których mechanizm działania mógłby poprawić wyniki leczenia nowotworów. Przydatność kliniczną tych związków ocenia się na podstawie badań z wykorzystaniem hodowli komórkowych, badań przedklinicznych na modelach zwierzęcych i zachowanym efekcie terapeutycznym dopuszczane są one do badań klinicznych.[2]

    W celu uniknięcia pierwszego etapu karcinogenezy – inicjacji – stosowane są nowoczesne związki. Skupiają się one między innymi na ich ingerencji w metabolizm czynników rakotwórczych. Związki te powinny skutecznie hamować aktywację czynników do aktywnych metabolitów, bądź pobudzać ich usuwanie.

    Zbyt nadmierna ekspresja kancerogenów może prowadzić do pobudzenia onkogenów i inaktywacji protoonkogenów, co z kolej może prowadzić do rozpoczęcia transformacji komórek. Związki chemoprewencyjne posiadają zdolność do wyłapywania wolnych rodników, hamowania zmian epigenetycznych i genetycznych. Ponadto, mogą hamować: powstawanie czynników wzrostu, syntezę białek antyapoptotycznych. Bardzo ważnym aspektem działania tych substancji jest również zdolność do pobudzenia procesów naprawczych w komórkach. W dwóch ostatnich etapów kancerogenezy są zdolne hamować procesy zapalne, uniemożliwiać podziały komórkowe.[3]

    Długotrwały stres oksydacyjny wymaga całego szeregu reakcji na drodze enzymatycznych i nieenzymatycznych mechanizmów antyoksydacyjnych komórek. Skłonność wolnych rodników do powstawania licznych uszkodzeń komórkowych, w efekcie prowadzących do śmierci komórki, umożliwia wykorzystanie zjawiska wytwarzania RFT w leczeniu do eliminowania komórek nowotworowych.[3]

    Naukowcy twierdzą, że długotrwały stres oksydacyjny i poddawanie komórek na działanie leków inicjujących powstawanie RFT może wyczerpywać ich mechanizmy antyoksydacyjne i po przekroczeniu odpowiedniego stężenia wolnych rodników prowadzić do apoptozy komórki. Na tej podstawie można przypuszczać, że komórki nowotworowe, charakteryzujące się podwyższonym wewnętrznym stężeniem RFT, powinny być bardziej niż prawidłowe komórki wrażliwe na leki antynowotworowe, których działanie polega na zwiększaniu stresu oksydacyjnego czy obniżeniu zdolności komórek do obrony antyoksydacyjnej.[4]

    Wykazano, na podstawie badań epidemiologicznych, że naturalne antyoksydanty obecne są w witaminach takich jak tokoferol, C i A. Do czynników zapobiegających etap promocji i progresji nowotworów złośliwych zaliczmy: karoten, kurkumina, gingerol, galusan epigallokatechiny i resweratrol.[5,6]

    Związkiem, który powoduje potencjalne działanie chemoprewencyjne i budzi wiele nadziei w walce z nowotworami jest na przykład resweratrol.

    To substancja naturalna o wyjątkowo wysokiej aktywności antyoksydacyjnej. Jej głównym źródłem są winogrona i produkowane z nich czerwone wina. Związek ten ma wiele funkcji oprócz właściwości antyoksydacyjnych ma bardzo korzystny wpływ na wiele aspektów naszego zdrowie ze względu na swoje szerokie udokumentowane działanie.[7]

    Mimo postępu diagnostyki i metod badawczych nie dysponujemy jeszcze lekiem lub preparatem, który skutecznie walcząc z chorobą nie oddziałuje przy tym na zdrowe tkanki. Potencjalne korzyści wynikające z chemoprewencji polegają na zmniejszeniu ryzyka zachorowalności na daną chorobę, ale nie są gwarancją całkowitej ochrony przed nią. Jest ona jednak obiecującą formą profilaktyki.

    Bibliografia:

    [1] Zespół Krajowego Rejestru Nowotworów NOWOTWORY ZŁOŚLIWE OGÓŁEM.
     http://onkologia.org.pl/nowotwory-zlosliwe-ogolem-2/
    [2] M. Zagórska-Dziok, D. Furman-Toczek, M. Kruszewski, L. Kapka-Skrzypczak Resweratrol jako związek chemoprewencyjny w terapii nowotworów. Probl Hig Epidemiol 2016, 97(4): 308-31
    [3] Wykład “Biochemia stresu oksydacyjnego”
    [4] Druga twarz tlenu. Wolne rodniki w przyrodzie. rozdz. dot. Właściwości reaktywnych form tlenu. Grzegorz Bartosz ISBN 978-83-01-13-847-9 PWN 2003
    [5] Abstrakt Q. Kong, J.A Beel, K.O Lillehe  A threshold concept for cancer therapy. 2000
    [6] Komórki nowotworowe a stres oksydacyjny Dorota Ścibior-Bentkowska, Hanna Czeczot Katedra i Zakład Biochemii, Warszawski Uniwersytet Medyczny, Postepy Hig Med Dosw. (online), 2009; 63: 58-72
    [7] Aneta Kopeć, Ewa Piątkowska, Teresa Leszczyńska, Renata Bieżanowska-Kopeć, Prozdrowotne właściwości resweratrolu, Żywność. Nauka. Technologia. Jakość, 2011


    « powrót do artykułu

  4. Z obserwacji przyrody znamy wiele przykładów współpracy owadów. Zagadką jednak pozostaje, na ile ta współpraca jest świadoma, czy owady potrafią wyobrażać sobie współpracę i płynące z niej korzyści, czy jest to tylko działanie instynktowne. Czy obecność lub nieobecność współpracownika wpływa na ich działania. Kwestię tę postanowił zbadać doktor Olli Loukola z Uniwersytetu w Oulu. Przeprowadził interesujący eksperyment, którego wyniki go zaskoczyły.

    Uważa się, że rozumienie roli partnera we współpracy to zadanie złożone, z którym radzą sobie ssaki o dużych mózgach, takie jak szympansy czy ludzie. Jednak badania Loukoli dowodzą, że również owady rozumieją tę kwestię, mogą uczyć się i adaptować do nowych zadań wymagających współpracy. Nawet niewielkie mózgu owadów posiadają umiejętność kooperacji, by osiągnąć wspólny cel, mówi Loukola.

    Uczony wraz ze swoim zespołem nauczyli pary trzmieli wykonywać dwa wspólne zadania. Jedno polegało na przepchnięciu klocka lego na środek wyznaczonego obszaru, drugie na wspólnym otwarciu drzwi znajdujących się na końcu podwójnego tunelu. Gdy już zwierzęta to umiały, badacze wypuszczali partnerów w różnych odstępach czasu. I zauważyli, że trzmiel, który wcześniej miał dostęp do klocka czy drzwi, z większym prawdopodobieństwem zaczynał pchać dopiero wtedy, gdy dołączył do niego partner. Innymi słowy, zwierzęta, które nauczono wspólnego wykonywania zadania, wydawały się czekać, aż dołączy do nich partner. W grupie kontrolnej, w której trzmiele nie miały partnera, nie zauważono takiego zwlekania z rozpoczęciem wykonywania zadania.

    Dodatkowe interesujące zachowanie zauważono w tunelu. Trzmiel, który pierwszy dotarł do drzwi, z większym prawdopodobieństwem odwracał się do nich tyłem, patrząc w głąb tunelu, a gdy zobaczył idącego w jego kierunku partnera, znowu odwracał się w kierunku drzwi. Wyglądało to tak, jakby czekał na partnera i sprawdzał, czy ten już idzie.

    Nasze badania są pierwszymi, które pokazują, że trzmiele mogą nauczyć się poza gniazdem nowych zadań polegających na współpracy. Jednak najbardziej ekscytujące jest spostrzeżenie, że na współpracę tę wpływają okoliczności społeczne, a nie wyłącznie indywidualny wysiłek, cieszy się doktor Loukola. Uczony ostrożnie jednak podchodzi do uzyskanych wyników. Dodaje, że potrzebne będą kolejne badania, by jednoznacznie udowodnić, że trzmiele rozumieją rolę partnera we współpracy.


    « powrót do artykułu

  5. Algorytmy sztucznej inteligencji wykazały, że istnieją różnice międzypłciowe w organizacji mózgu na poziomie komórkowym. Występują one w istocie białej. To tkanka znajdująca się pod korą mózgową. Tworzy ona szlaki łączące różne części kory i obszary pozakorowe. Częścią istoty białej jest też spoidło wielkie, które łączy obie półkule.

    Nie od dzisiaj wiemy, że kobiety i mężczyźni w różny sposób doświadczają różnych chorób, takich jak stwardnienie rozsiane, autyzm czy migreny. Lepsze zrozumienie różnic pomiędzy mózgami obu płci mogłoby przyczynić się do opracowania metod leczenia lepiej dostosowanych do płci chorego. Dotychczas jednak różnice na poziomie komórkowym są dla nas zagadką. Dopiero od niedawna posiadamy narzędzia, które pozwalają je lepiej badać.

    Przed trzema miesiącami donosiliśmy o opracowaniu modelu sztucznej inteligencji, który na podstawie samego tylko zapisu aktywności mózgu jest w stanie z ponad 90-procentową trafnością określić, czy ma do czynienia z mózgiem kobiety, czy mężczyzny. Teraz zaś naukowcy z NYU Langone Health, akademickiego centrum medycznego Uniwersytetu Nowojorskiego, poinformowali o wynikach swoich badań z wykorzystaniem algorytmu sztucznej inteligencji.

    Uczeni przyjrzeli się tysiącom skanów MRI wykonanych u 471 mężczyzn i 560 kobiet. Okazało się, że wykorzystywany przez nich algorytm jest w stanie dokładnie określić, czy ma do czynienia ze skanem mózgu kobiety, czy mężczyzny, na podstawie różnic strukturalnych, niewidocznych dla ludzkiego oka. Wyniki potwierdzono za pomocą trzech różnych modeli SI, których zadaniem było określenie płci właściciela mózgu albo na podstawie skanu niewielkiego fragmentu istoty białej, albo dzięki szerokiej analizie zależności pomiędzy większymi obszarami mózgu.

    Nasze badania dostarczają nam bardziej wyraźnego obrazu na temat struktury mózgu żywego człowieka, co z kolei pozwoli nam poznać sposób rozwoju wielu chorób oraz da odpowiedź na pytanie, dlaczego objawiają się one różnie u kobiet i mężczyzn, mówi główna autorka badań, neuroradiolog Yvonne W. Lui.

    Naukowcy rozpoczęli od treningu swoich modeli sztucznej inteligencji, dostarczając im przykładowych skanów mózgów zdrowych kobiet i mężczyzn, a do każdego skanu dodano też informację o płci. Z czasem modele nauczyły się odróżniać płeć na podstawie skanów. Co ważne – podkreśla Lui – modele nie mogły wykorzystać informacji o wielkości mózgu czy relatywnych rozmiarach poszczególnych jego części. Tutaj bowiem istnieją znane różnice pomiędzy płciami.

    Po takim treningu okazało się, że modele potrafią określić płeć osoby, której skan mózgu analizowały, z trafnością od 92 do 98 procent. Po analizie naukowcy stwierdzili, że sztuczna inteligencja wykorzystywała wiele różnych wskazówek, na przykład badał, jak łatwo i w którym kierunku woda przemieszcza się przez tkankę mózgową. To pokazuje, jak ważne są różnice międzypłciowe w badaniach nad chorobami rozpoczynającymi się w mózgu, stwierdza doktorantka Junbo Chen.

    Autorzy badań mają teraz zamiar skupić się na kwestii rozwoju w czasie różnic w budowie mózgu, by lepiej zrozumieć środowiskowe, hormonalne i społeczne uwarunkowania, które mogą odgrywać role w pojawianiu się tych różnic.


    « powrót do artykułu

  6. Sfinks i piramidy w Gizie to jedne z najbardziej znanych zabytków starożytności. Od ponad 100 lat są przedmiotem intensywnych badań archeologicznych. W ich trakcie odkryto przylegający do Wielkiej Piramidy Cmentarz Zachodni, miejsce pochówku członków rodziny królewskiej i wysokich rangą urzędników. Większość znajdujących się tam mastab zorientowanych jest na linii północ-południe, a pomiędzy nimi znajduje się duży płaski obszar o wymiarach 80x110 metrów, na którym nie ma żadnych struktur widocznych nad ziemią. Archeolodzy poinformowali właśnie o odkryciu na tym obszarze podziemnej anomalii.

    Japońsko-egipski zespół prowadził tam w latach 2021–2023 badania georadarem (GPR) oraz metodą elektrooporową (ERT), które ujawniły istnienie dużej anomalii. Badacze sądzą, że jest ona powodowana przez dwie połączone ze sobą struktury zbudowane ręką człowieka. Georadar ujawnił, że na głębokości 0,5–2 metrów prawdopodobnie znajduje się struktura w kształcie litery L o wymiarach około 10x15 metrów. Jest ona wypełniona jednorodnym piaskiem, co wskazuje na celowe zasypanie po zbudowaniu. Pod nią, metodą elektrooporową, zidentyfikowano anomalię na obszarze 10x10 metrów. Występuje ona na głębokościach od 3,5 do 10 metrów. Anomalię taką może powodować materiał o wysokiej oporności – jak piasek – lub istnienie tam pustej przestrzeni.

    Uważamy, że związek pomiędzy płytszą a głębszą strukturą to ważna wskazówka. Z samych tylko wyników naszych badań nie jesteśmy w stanie stwierdzić, jaki materiał powoduje anomalię, ale może to być duża podziemna struktura archeologiczna, podsumowują autorzy badań.

    Miejsce odkrycia można łatwo zidentyfikować chociażby w serwisie Google Maps. Widoczny płaski obszar bez mastab znajduje się na zachód od piramidy Cheopsa, zaraz za drogą na północy od piramidy Chefrena. Na jego północnej krawędzi wyróżnia się duża mastaba Hamiunu, bratanka i wezyra Cheopsa.


    « powrót do artykułu

  7. Po tysiącach lat badań nad trzęsieniami ziemi wiemy, że główną ich przyczyną jest ruch płyt tektonicznych i przemieszczanie się skał wzdłuż uskoków. Naukowcy z MIT poinformowali właśnie na łamach Science Advances, że niektóre wydarzenia pogodowe również mogą mieć swój udział w powstawaniu trzęsień ziemi. W artykule Untangling the environmental and tectonic drivers of the Noto earthquake swarm in Japan czytamy, że duże opady śniegu i deszczu prawdopodobnie były jedną z przyczyn serii wstrząsów, jakie mają miejsce od 4 lat na półwyspie Noto w Japonii.

    Zaobserwowaliśmy, że śnieg i inne obciążenia środowiskowe na powierzchni wpływają na napięcia pod ziemią, a okres, w którym wystąpiły intensywne opady, jest dobrze skorelowany z występowaniem serii trzęsień ziemi. Tak więc klimat ma oczywisty wpływ na reakcje skorupy ziemskiej, mówi profesor William Frank z Wydziału Nauk o Ziemi, Atmosferze i Planetach na MIT.

    Naukowcy stwierdzili, że aktywność sejsmiczna na półwyspie Noto jest zsynchronizowana z pewnymi zmianami w naprężeniach pod ziemią, a na te zmiany wpływaj wzorzec opadów śniegu i deszczu. Autorzy badań podejrzewają, że podobny związek pomiędzy opadami, a trzęsieniami ziemi występuje na całym świecie. Nie można też wykluczyć, że zmiany klimatu będą objawiały się również trzęsieniami ziemi. Jeśli będzie dochodziło do bardziej intensywnych opadów, możemy spodziewać się zmian w dystrybucji wody pomiędzy atmosferą, oceanami a lądem, a to zmieni naprężenia w skorupie ziemskiej. Z pewnością będzie to miało wpływ. To zjawisko, które jesteśmy w stanie dokładniej badać, dodaje.

    Od końca 2020 roku półwysep Noto zaczęła nawiedzać seria setek niewielkich wstrząsów. W przeciwieństwie do typowych serii tego typu, które rozpoczynają się od głównego trzęsienia, po którym występują liczne – stopniowo zanikające – wstrząsy wtórne, w przypadku Noto nie zarejestrowano tego głównego wyzwalacza. Naukowcy z MIT, wraz z kolegami z Japonii, postanowili poszukać przyczyn nowego zjawiska. Zaczęli od analizy danych katalogu trzęsień ziemi prowadzonego przez Japońską Agencję Meteorologiczną. Szczególnie przyjrzeli się ostatnim 11 latom, gdyż od tego czasu na Noto zaczęto rejestrować epizody zwiększonej liczby trzęsień.

    Analiza pokazała, że w porównaniu do roku 2020, w poprzednich latach wstrząsy były sporadyczne i wydawały się niezwiązane ze sobą. Od 2020 zjawisko przybrało na intensywności, a wstrząsy gromadziły się w łatwych do zauważenia przedziałach czasowych, co sugerowało, że w jakiś sposób są ze sobą powiązane. Naukowcy przyjrzeli się następnie danym z poszczególnych regionalnych stacji sejsmicznych we wspomnianym 11-letnim okresie. Czas zarejestrowania przez daną stację wstrząsu pozwalał określić, jak szybko fala sejsmiczna przemieszczała się pomiędzy stacjami. Prędkość ta jest związana ze strukturą skorupy ziemskiej, przez którą podróżuje fala. Badacze wykorzystali te dane, by obliczyć prędkość rozchodzenia się fal sejsmicznych pomiędzy wszystkimi stacjami na półwyspie i w jego okolicach w ciągu ostatnich 11 lat.

    Gdy przyjrzeli się swoim danym, ze zdumieniem odkryli wzorzec, który wskazywał, że zmiany w prędkości rozchodzenia się fal sejsmicznych są zsychronizowane z porami roku. Zaczęli więc zastanawiać się, jakie zmiany środowiskowe powodowane przez pory roku mogą wpływać na strukturę skorupy ziemskiej. Skupili się szczególnie na sezonowych zmianach opadów badając, jak wpływają one na ciśnienie wywierane przez wodę w gruncie i pęknięciach skał w skorupie ziemskiej.

    Gdy pada deszcz lub śnieg, zwiększa się masa na powierzchni, a to zwiększa ciśnienie hydrostatyczne cieczy w gruncie i pęknięciach skał, co powoduje, że fale sejsmiczne przemieszczają się wolniej. Gdy ta dodatkowa masa zostanie usunięta, czy to przez parowanie, czy spłynięcie wody, nagle ciśnienie hydrostatyczne zmniejsza i fale wędrują szybciej, wyjaśnia Frank. Jego koledzy, Qing-Yu Wang i Xin Cui, stworzyli hydromechaniczny model półwyspu Noto i symulowali zmiany w ciśnieniu hydrostatycznym. Do modelu wprowadzili dane meteorologiczne z badanego okresu i śledzili zmiany w ciśnieniu hydrostatycznym przed wstrząsami i po nich. Następnie porównali te zmiany ze zmianami prędkości rozchodzenia się fal sejsmicznych.

    Mieliśmy dane z obserwacji prędkości rozchodzenia się fal sejsmicznych, mieliśmy model zmian ciśnienia hydrostatycznego i gdy nałożyliśmy te dane na siebie okazało się, że idealnie pasują, cieszy się Frank.

    Okazało się, że w sposób szczególny na trzęsienia ziemi wpływają duże opady śniegu. Innymi słowy, jeśli dojdzie do dużych opadów, a w szczególności ekstremalnych opadów śniegu, mieszkańcy Noto mogą spodziewać się wystąpienia serii wstrząsów.
    Badacze podkreślają, że pierwotna przyczyna trzęsień ziemi zawsze leży pod ziemią. Jeśli chcemy zrozumieć trzęsienia ziemi, zawsze musimy patrzeć na tektonikę. To jest i zawsze będzie główną ich przyczyną. Jakie są jednak drugorzędne czynniki, które mogą wpływać na to, kiedy pojawią się trzęsienia ziemi? Jedną z nich jest bez wątpienia klimat, dodaje Frank.


    « powrót do artykułu

  8. Rada Języka Polskiego ogłosiła, że od 1 stycznia 2026 roku w życie wejdzie kilka zmian w polskiej pisowni. Zmiany te dotyczą niektórych zasad używania wielkich i małych liter, pisowni łącznej lub rozdzielnej oraz używania łącznika. Celem zmian jest ujednolicenie zasad oraz ułatwienie ich nauczenia się i stosowania. Zmiany wejdą w życie za kilkanaście miesięcy, pozostało więc sporo czasu, by przyswoić sobie nowe zasady.

    Warto więc zapamiętać, że od stycznia 2026 roku przymiotniki od nazw własnych zakończone na -owski (np. chopinowski) będziemy zawsze pisali małą literą. Natomiast nazwy mieszkańców utworzone od nazw geograficznych – zawsze wielką literą. Zatem zarówno nazwa mieszkańca stolicy Włoch, jak i obywatela Imperium Romanum będzie zapisywana Rzymianin. Dowolność będziemy zaś mieli przy zapisywaniu przymiotników utworzonych o imion, a zakończonych na -owy, -in(yn) oraz -ów. Poprawne będą więc formy Jackowe dzieci, Zosina lalka, jak i jackowe dzieci oraz zosina lalka. Wielką lub małą literą będziemy mogli też pisać nieoficjalne nazwy etniczne, na przykład makaroniarz lub Makaroniarz.

    Wielką literą będziemy zapisywali też nazwy pojedynczych egzemplarzy wyrobów przemysłowych, niezależnie od tego, czy chodzi o firmę i markę, czy o konkretny egzemplarz. Napiszemy zatem zarówno ciężarówka marki Ford, jak i przed domem stoi czerwony Ford. Wielka litera będzie też obowiązywała przy wszystkich członach nazw własnych, również geograficznych. Zatem obowiązywać będzie pisownia Wyspa Uznam, Półwysep Hel oraz nazw obiektów topograficznych (Aleja Róż, Park Kościuszki, Plac Zbawiciela, Kościół Mariacki). Jedynie wyraz ulica będzie pisany małą literą: ulica Józefa Piłsudskiego.

    Zmiany zajdą też w pisowni partykuły nie z przymiotnikami i przysłówkami odprzymiotnikowymi. Również w stopniu wyższym i najwyższym. Zatem napiszemy nielepszy, nielepiej. Obowiązkowy będzie też zapis łączny nie z imiesłowami odmiennymi, bez względu na ich znaczenie (niepalący, nieumyty). Łącznie będziemy pisać wyrażenia takie jak półżartem, półserio a także cząstki niby- i quasi- z wyrazami pisanymi małą literą (nibyartysta, quasiopiekun).

    Rada zdecydowała się rozdzielić cząstki -bym, -byś, -by, -byśmy od spójników. Będziemy więc pisać Zastanawiam się, czy by nie pojechać w góry. Dopuszczalna będzie rozdzielna (obok łącznej) pisownia cząstek super-, ekstra-, eko-, wege-, mini- i podobnych. Nie popełni więc błędu ten, kto napisze superpomysł, ani zwolennik formy super pomysł. Dozwolona zostanie też wariantywna pisownia (z łącznikiem, przecinkiem lub spacją) wyrażeń typu tuż-tuż. Będziemy mogli napisać tak, jak obecnie, ale również tuż, tuż oraz tuż tuż.

    Zmian czeka nas więcej, a z wszystkimi można zapoznać się na stronie Rady w załączniku nr 1 do komunikatu z dnia 10 maja 2024 roku. Natomiast w załączniku nr 2 zebrano


    « powrót do artykułu

  9. Kaszaloty spermacetowate to posiadacze największych mózgów w przyrodzie. Dotychczasowe badania pokazują, że są niezwykle inteligentnymi zwierzętami. Wykazują zaawansowane zachowania społeczne, podejmują wspólne decyzje, obserwujemy ich złożone zachowania. Jednak wciąż bardzo mało o nich wiemy. W Nature Communications ukazał się właśnie artykuł, którego autorzy sugerują, że sposób porozumiewania się kaszalotów może być bardziej podobny do ludzkiego języka, niż nam się wydawało.

    Badacze z należącego do MIT Computer Science and Artificial Intelligence Lab (CSAIL) połączyli siły z naukowcami pracującemu przy Project CETI, inicjatywie wykorzystującej sztuczną inteligencję do zrozumienia waleni. Tym razem jednak nie użyto AI, ale zaawansowanych metod statystycznych, które wykazały, że wokalizacje kaszalotów są podobne do ludzkich wokalizacji.

    Dzięki wykorzystaniu modeli statystycznych, a nie sztucznej inteligencji, naukowcy mogli stworzyć bardziej czytelny obraz badanego zagadnienia. Jak tłumaczą, korzyścią z podejścia statystycznego jest fakt, że nie trzeba trenować modelu sieci neuronowej, nie mamy więc „czarnej skrzynki”, której wnętrze jest tajemnicą, więc całość łatwiej jest analizować.

    Algorytm pozwolił na zamianę poszczególnych wokalizacji – a zbadano ich aż 8719 i pochodziły one od około 60 osobników – w szczegółowe wizualizacje, które ujawniły, że część wokalizacji zawierała dodatkowe elementy, których dotychczas nie zauważono. Różnice takie nie były też przypadkowe. Elementy te, w połączeniu z różnym czasem wokalizacji i interakcjami zachodzącymi pomiędzy różnymi kaszalotami sugerują, że wokalizacje zawierają więcej informacji i są bardziej złożone wewnętrznie, niż sądziliśmy. Profesor Jacob Andreas z CSAIL mówi, że możemy sobie wyobrazić odkrytą właśnie różnicę w taki oto sposób, że dotychczas wokalizacje kaszalotów uważano za system odpowiadający egipskim hieroglifom, a nowe badania wskazują, że mogą być one literami. To, jak na razie, tylko hipoteza, gdyż wciąż nie potrafimy interpretować poszczególnych wokalizacji, nie wiemy, czy mają one związek z pozycją narządów służących do wokalizacji, ani czy łączą się w zdania. Naukowcy są jednak pewni, że istnieje znacznie więcej rodzajów wokalizacji i znacznie więcej różnic pomiędzy poszczególnymi dźwiękami niż sądzono, a kaszaloty są w stanie je odbierać i rozumieć.

    W następnym etapie badań naukowcy spróbują stworzyć modele językowe wokalizacji waleni i sprawdzić, czy wpływają one jakoś na ich zachowanie. Chcieliby też rozpocząć prace nad bardziej ogólnym modelem językowym, który można będzie dostosowywać do różnych gatunków. Nie będzie to łatwe zadanie, gdyż praktycznie niczego nie wiemy o metodach komunikacji zwierząt. Jednak od czasu, gdy do badań nad językami zwierząt zaczęto używać sztucznej inteligencji, specjaliści coraz bardziej interesują się tym zagadnieniem.

    Caroline Casey z Uniwersytetu Kalifornijskiego w Santa Cruz, która od ponad dekady bada wokalizacje mirung mówi, że jest bardzo trudno udowodnić, że dany sygnał znaczy dla zwierzęcia to, co ludzie sądzą, że znaczy. Uczona dodaje, że o ile opisywany artykuł bardzo dobrze opisuje subtelne różnice akustyczne w różnych wokalizacjach, to kolejny krok – zrozumienie znaczenia tych wokalizacji – będzie niezwykle trudny.


    « powrót do artykułu

  10. Wycieki ropy naftowej do oceanów to jedne z najpoważniejszych katastrof ekologicznych. Niszczą one morskie życie i mają na nie długotrwały negatywny wpływ. Naukowcy z chińskiego Centralnego Uniwersytetu Południowego w Changsha i Uniwersytetu Ben Guriona odkryli, że korek, poddany działaniu femtosekundowego lasera, szybko rozgrzewa się pod wpływem promieni słonecznych, stając się świetnym absorbentem ropy naftowej.

    Badając reakcję korka na różnego rodzaju światło laserowe, przypadkiem odkryliśmy, że potraktowany laserem korek znacząco się zmienia, zyskując właściwości superhydrofobowe i superoleofilne. Po odpowiednim dobraniu parametrów lasera, powierzchnia korka stała się bardzo ciemna i zdaliśmy sobie sprawę, że może być on doskonałym materiałem do konwersji fototermicznej, wyjaśnia główny autor badań, Yuchun He. Właściwości, jakie pod wpływem lasera zyskał korek, oraz fakt, że jest on materiałem przyjaznym środowisku i poddającym się recyklingowi, nasunęły badaczom myśl o wykorzystaniu go do zbierania ropy z powierzchni wody. O ile nam wiadomo, nikt nie próbował wykorzystywać korka do likwidacji skutków wycieków ropy, dodaje Kai Yin.

    Naukowcy przeprowadzili serię badań, w czasie których precyzyjnie dobierali pożądane właściwości korka, starając się przy tym robić to jak najmniejszym kosztem, oraz badali nanoskopowe zmiany strukturalne w materiale, mierzyli zmiany poziomu tlenu i węgla, zmiany kąta styku wody i ropy z korkiem, absorpcję, odbicie i emisje fal elektromagnetycznych korka oraz jego wytrzymałość na wielokrotne cykle ogrzewania i schładzania.

    W końcu uzyskali materiał, który bardzo szybko – w ciągu kilkunastu sekund – znacznie rozgrzewał się pod wpływem promieni słonecznych, dzięki czemu znakomicie zwiększały się jego możliwości absorpcji ropy. Materiał był w stanie zaabsorbować w ciągu 200 sekund nieco ponad 4 gramy ropy na każdy cm2 powierzchni. Tak dobre właściwości absorpcyjne, w połączeniu z dostępnością korka i faktem, że jest on przyjazny środowisku, mogą czynić z niego świetny materiał do likwidacji wycieków ropy naftowej.


    « powrót do artykułu

  11. Podczas prac archeologicznych podjętych w związku z rozbudową drogi w pobliżu Benson w Oxfordshire, naukowcy znaleźli dobrze zachowaną studnię z epoki brązu. Specjalistów najbardziej cieszy fakt, że świetnie zachowała się drewniana struktura studni. Sprzyjały temu odpowiednie warunki, duża ilość wody w glebie. Pozwoliła ona zachować zabytek, ale utrudniała pracę archeologom.

    Mimo trudności, naukowcy odsłonili całą studnię i wykonali jej trójwymiarowy model cyfrowy. Następnie została ona rozebrana kawałek po kawałku i przesłana do Oxfordshire Museum Service, gdzie zostanie zakonserwowana i dokładnie przebadana.

    Epoka brązu trwała na Wyspach Brytyjskich od około 2500 roku p.n.e. do ok. 700 r. p.n.e. Studnia nie jest jedynym zabytkiem z tego okresu. W Benson i okolicach, aż do Wallingford znajdowano już ślady ludzkiego osadnictwa z tej epoki. Dzięki temu odkryciu lepiej zrozumiemy antropogeniczny krajobraz przeszłości i dowiemy się, na jak dużym obszarze ludzie byli aktywni.

    John Boothroyd, jeden z menedżerów Oxford Archaeology, która prowadziła wykopaliska, mówi, że początkowo naukowcy sądzili, iż trafili na typową dla stanowiska jamę. Jednak w pewnym momencie odsłonili wbity pionowo w ziemię drewniany pal. Z czasem okazało się, że stanowi on fragment plecionki, którą wyłożono krawędzie studni. Zachowane drewniane struktury z tego okresu to rzadkość, dodaje. Oprócz studni znaleziono też kości zwierząt oraz fragmenty ceramiki.


    « powrót do artykułu

  12. Obecny wzrost poziomu dwutlenku węgla jest 10-krotnie szybszy, niż w jakimkolwiek momencie ostatnich 50 000 lat, stwierdzili naukowcy, którzy przeprowadzili szczegółową analizę chemiczną lodu z Antarktyki. Wyniki badań zespołu z USA, Wielkiej Brytanii, Australii, Szwajcarii, Niemiec i Argentyny zostały opublikowane na łamach PNAS.

    Badanie przeszłości pokazuje nam, jak bardzo różna jest teraźniejszość. Dzisiejsze tempo zmiany koncentracji dwutlenku węgla jest naprawdę bezprecedensowe, mówi profesor Kathleen Wendt z Oregon State University. Zidentyfikowaliśmy okres najszybszego naturalnego przyrostu CO2 i stwierdziliśmy, że dzisiejsze tempo wzrostu, napędzane głównie przez człowieka, jest 10-krotnie większe, dodaje uczona.

    Lód, który gromadził się w Antarktyce przez setki tysięcy lat, zawiera bąbelki powietrza. Naukowcy wykorzystali lód z odwiertów o głębokości 3,2 kilometrów, by zbadać skład tego powietrza i na jego podstawie odtworzyć dawny klimat Ziemi.

    W czasie ostatnich kilkudziesięciu tysięcy lat były liczne momenty, gdy poziom dwutlenku węgla wzrastał znacznie ponad zwykły poziom. Naukowcy wiedzą, że te skoki pojawiały się pod koniec tzw. zdarzeń Heinricha, w czasie których od lądolodu północnoatlantyckiego odrywały się wielkie góry lodowe i dryfowały na północnym Atlantyku. Słodka woda z roztapiających się gór lodowych zmieniała stratyfikację oceanu i wpływała na cyrkulację termohalinową, prowadząc do zmian klimatycznych.

    Wydarzenia Heinricha są naprawdę znaczące. Uważamy, że były one powodowane przez dramatyczne załamania się pokryw lodowych na północny Atlantyku. Powodowało to reakcję łańcuchową, w skład której wchodziły zmiany w monsunach tropikalnych, w wiatrach zachodnich na Półkuli Południowej oraz w wielkim uwalnianiu się CO2 z oceanów, mówi współautor badań, Christo Buizert.

    Z najnowszych badań dowiadujemy się, że do największych zmian doszło podczas Zdarzenia Heinricha 4, kiedy to koncentracja CO2 wzrosła w ciągu około 55 lat o około 14 ppm. Obecnie średnie tempo wzrostu dla dekady 2014–2024 wynosi 2,97 ppm rocznie, zatem przyrost o 14 ppm następuje w ciągu 5–6 lat. Jest więc 10-krotnie szybsze, niż wówczas. Warto też zauważyć, że wciąż się ono zwiększa. W dekadzie 1984–1994 średnioroczny wzrost wynosił 1,52 ppm, w dekadzie 1994–2004 było to 1,81 ppm, a dla dekady 2004–2014 odnotowano 2,10 ppm/rok.

    Dowody wskazują, że zachodnie wiatry, które odgrywają ważną rolę w cyrkulacji w głębinach oceanicznych, wzmagały się, co prowadziło do uwalniania dwutlenku węgla z Oceanu Południowego. Obecnie niektóre badania sugerują, że w najbliższych dekadach może dojść do wzmocnienia wiatrów zachodnich, a jeśli tak się stanie, to zmniejszy się zdolność Oceanu Południowego do pochłaniania dwutlenku węgla.


    « powrót do artykułu

  13. Patobiolodzy z The Royal Veterinary College w Wielkiej Brytanii i naukowcy z Narodowego Uniwersytetu Chung Hsing na Tajwanie stworzyli tabelę demograficzną kotów żyjących w Wielkiej Brytanii. To ważny krok w kierunku zrozumienia długości życia tych zwierząt oraz ich umieralności i czynników wpływających na zgony. Naukowcy przyjrzeli się 7936 kotom, które zmarły pomiędzy 1 stycznia 2019 a 31 marca 2021 roku. Następnie dane te przeanalizowali pod kątem płci i rasy.

    Z analiz wynika, że oczekiwana długość życia kota w Wielkiej Brytanii, który nie przekroczył jeszcze 1. roku życia, wynosi 11,7 lat. Samice mogą spodziewać się życia o 1,33 roku dłuższego niż samce. Najdłużej żyją koty burmskie i birmańskie. Średnia długość ich życia to 14,4 lat. Na drugim miejscu uplasowały się koty ras mieszanych (11,9), a na trzecim miejscu koty syjamskie (11,7). Na najkrótsze życie pupila muszą przygotować się zaś posiadacze sfinksów. Rasa ta żyje średnio 6,8 roku. Niewiele dłużej, bo średnio 8,5 roku żyją koty bengalskie. Czynnikami, które skracają życie wszystkich kotów jest czysta przynależność rasowa oraz odbiegająca od idealnej (w górę lub w dół) masa ciała.

    Zwykle koty czystej rasy żyły o 1,5 roku krócej niż koty ras mieszanych. I to właśnie koty wśród ras mieszanych byli koci rekordziści. Najstarszy kot, którego dane odnotowano w badaniach przeżył niemal 27 lat i był mieszańcem. Najstarszy kot burmski miał ponad 21 lat, a najstarszy birmański przekroczył 22. rok życia. Z kolei najstarszy sfinks nie dożył 15 lat.

    Ważnym czynnikiem odgrywającym rolę w śmiertelności kotów w młodym wieku była kastracja. Koty niekastrowane były narażone na ponad 4-krotnie większe ryzyko zgonu przed 3. rokiem życia niż koty kastrowane.

    Z artykułem opisującym badania można zapoznać się na łamach Journal of Feline Medicine and Surgery.


    « powrót do artykułu

  14. Camp Nou, Wembley czy Old Trafford to dla fanów piłki nożnej miejsca niemal święte. Dla Majów zaś ich boiska były dosłownie miejscami świętymi. Archeolodzy z University of Cincinnati znaleźli szczątki roślin wykorzystywanych w ceremoniałach religijnych pod boiskiem na stanowisku archeologicznym Yaxnohcah. Rośliny, znane z właściwości halucynogennych i leczniczych, zostały prawdopodobnie złożone w ceremonii poświęcenia boiska.

    Profesor David Lentz i jego koledzy, we współpracy z meksykańskim Narodowym Instytutem Antropologii, uczonymi z University of Calgary, Universidad Autónoma de Campeche i Universidad Nacional Autónoma de México od dawna badają kultury Mezoameryki. W latach 2016–2022 prowadzili wykopaliska na boisku w Yaxnohcah (nazwa ta oznacza Pierwszy Wielki Dom). Był to duży ośrodek składający się z co najmniej 15 kompleksów ceremonialnych i publicznych, rozrzuconych na obszarze 42 km2. Stanowisko znajduje się 21 kilometrów na południowy-wschód od bardziej znanego Calakmul. Jest ono niezwykle ważne dla badań nad cywilizacją Majów epoki przedklasycznej. Najstarsze znalezione tam ślady osadnictwa pochodzą sprzed 1000 roku p.n.e.

    Majowie znali wiele gier w piłkę, w tym pok-a-tok, której zasady przypominały nieco dzisiejsza piłkę nożną i koszykówkę. Celem graczy było przerzucenie piłki przez pierścień umieszczony na ścianie. Jednak nie wszystkie boiska miały takie pierścienie. Dzisiaj postrzegamy boiska wyłącznie jako miejsca rozrywki. Jednak dla Majów były one czymś więcej. Były one niezwykle ważnym elementem kompleksów ceremonialnych. Stanowiły niezbędną część miasta, wyjaśnia profesor Lentz. Nic dziwnego, że miejsca takie były poświęcane. Majowie nie różnili się w tym tak bardzo od nas. Obecnie również odbywają się ceremonie – i świeckie, i religijne – takie jak symboliczne wbicie pierwszej łopaty, przecięcie wstęgi, chrzest statku, związane z rozpoczęciem czy zakończeniem przedsięwzięcia budowlanego czy konstrukcyjnego.

    Lentz i jego grupa prowadzili badania w jednym z 15 grup monumentalnej architektury, kompleksie Helena. Znajduje się tam 1-metrowej wysokości platforma z kamienia i ziemi. Początkowo był to skromny budynek, który z czasem rozrastał się w monumentalną architekturę. Z czasem w miejscach takich rozrastających się platform chowano ważnych członków społeczności, nadając miejscom specjalne znaczenie. Struktury takie jak Helena były żywe, miały dusze, które trzeba było odżywiać, mówi profesor Nicholas Dunning.

    Gdy zmieniano przeznaczenie takiego miejsca lub je przebudowywano, składano ofiary, by je błogosławić. Czasami archeolodzy znajdują ceramikę czy biżuterię, będącą częścią takich darów ofiarnych. Ze źródeł etnohistorycznych od dawna wiemy, że Majowie używali też materiałów organicznych, jednak niezwykle trudno je znaleźć. Dlatego właśnie nasze odkrycie jest tak wyjątkowe, wyjaśnia Dunning. To właśnie on odkrył próbki, w których znaleziono materiał genetyczny roślin złożonych w ceremonii.

    Specjalistyczne badania ujawniły, że wśród ofiarowanych bogom roślin znajdowała się Ipomoea corymbosa, gatunek pnącza z rodziny powojowatych o znanych właściwościach halucynogennych. Obecnie w Meksyku wytwarza się miód pitny z dodatkiem nasion tej rośliny. Zidentyfikowano też papryczki chili, używane przez Majów również jako lekarstwo. Bogom ofiarowano też Hampea trilobata, roślinę z rodziny ślazowatych oraz Oxandra lanceolata, którego liście zawierają substancje powodujące rozkurcz mięśni gładkich naczyń krwionośnych – a więc spadek ciśnienia krwi – znieczulające i odkażające. Naukowcy stwierdzili, że znalezienie tych ważnych dla Majów roślin w jednym miejscu w skoncentrowanej próbce wskazuje, iż zostały one celowo umieszczone pod platformą.


    « powrót do artykułu

  15. W Acta Astronautica ukazał się interesujący artykuł, którego autor – Michael A. Garrett, dyrektor Jodrell Bank Centre for Astrophysics na University of Manchester – zastanawia się czy to nie sztuczna inteligencja jest przyczyną, dla której nie odkryliśmy dotychczas sygnałów wysłanych przez obcą cywilizację. Uczony rozważa możliwość, że SI jest wąskim gardłem rozwoju, które w rzeczywistości zagraża długoterminowemu przetrwaniu cywilizacji technicznej.

    Garrett bada hipotezę, że szybki rozwój sztucznej inteligencji (AI), którego kulminacją jest pojawienie się sztucznej superinteligencji (ASI – artificial superintelligence), działa jak „Wielki Filtr”, który jest odpowiedzialny za niewielką liczbę zaawansowanych cywilizacji technologicznych we wszechświecie. Taki filtr mógłby pojawiać się, zanim cywilizacje rozwiną stabilną obecność na kolejnych planetach, co sugeruje, że typowy czas życia cywilizacji technicznej wynosi mniej niż 200 lat.

    Koncepcja „Wielkiego Filtra” jest próbą rozwiązania Paradoksu Fermiego. Został on sformułowany przez Enrico Fermiego, a dotyczy rzucającej się w oczy sprzeczności pomiędzy wiekiem wszechświata i liczbą gwiazd, a faktem, że dotychczas nie wykryliśmy żadnych dowodów na istnienie innej cywilizacji. Dotychczas zaproponowano kilka „Wielkich Filtrów”, uniwersalnych barier mających uniemożliwiać rozprzestrzenianie się inteligentnego życia we wszechświecie, a od niedawna pojawiają się koncepcje mówiące, że filtrem takim może być SI.

    Uczony z Manchesteru przychyla się do opinii, że „Wielkim Filtrem” może być rozwój sztucznej inteligencji. Przypomina, że najnowsze dokonania w dziedzinie SI pozwalają maszynom na uczenie się, dostosowywanie i wykonywanie zadań, które do niedawna uważano za wyłączną ludzką domenę. Sztuczna inteligencja jest w coraz większym stopniu włączana w nasze codzienne życie, wpływa na kształt interakcji międzyludzkich, sposobów współpracy, interakcji z technologią oraz na postrzeganie świata. Zmienia sposoby komunikacji i doświadczenia osobiste. Ma wpływ na handel, opiekę zdrowotną, pojazdy autonomiczne, prognozy gospodarcze, badania naukowe, prace badawczo-rozwojowe, edukację, przemysł, politykę, bezpieczeństwo i obronę. Trudno jest znaleźć dziedzinę życia, która nie byłaby już naznaczona obecnością sztucznej inteligencji, stwierdza Garrett.

    W związku z rozwojem SI pojawiają się kolejne obawy wiązane z miejscami pracy, prywatnością danych, etycznym podejmowaniem decyzji czy odpowiedzialnością za nie. Sztuczna inteligencja ma też wpływ na środowisko naturalne, chociażby poprzez olbrzymie moce obliczeniowe, jakich potrzebuje i związane z tym zużycie energii.

    W 2014 roku Stephen Hawking ostrzegał, że AI może doprowadzić do zagłady ludzkości. Uważał, że w pewnym momencie może ona zacząć rozwijać się samodzielni, w coraz szybszym tempie. Obecnie coraz częściej pojawiają się głosy o konieczności opracowania metod lepszej kontroli nad AI czy też propozycje wprowadzenia moratorium na jej używanie, dopóki takie metody kontroli nie powstaną.

    Z jednej strony rządy wielu państw próbują znaleźć równowagę pomiędzy korzyściami, jakie daje rozwój sztucznej inteligencji, a potencjalnymi zagrożeniami. Z drugiej zaś zdają sobie sprawę, że szybkie wdrażanie i rozwój AI daje przewagę nad innymi państwami, a ponadto może zabezpieczać przed ryzykiem stwarzanym przez państwa z rozwiniętą sztuczną inteligencją. Szczególnie dotyczy to kwestii bezpieczeństwa narodowego i obrony.

    Sztuczna inteligencja rozwija się błyskawicznie w porównaniu z naturalnym tempem ewolucji, tymczasem nic w naszej historii nie przygotowało nas na pojawienie się innej wysoko rozwiniętej inteligencji. I można przypuszczać, że uwagi te dotyczą każdej cywilizacji, która mogła powstać we wszechświecie. Zanim jeszcze AI stanie się superinteligentna i potencjalnie autonomiczna, prawdopodobnie zostanie uzbrojona przez konkurujące ze sobą grupy w ramach jednej cywilizacji biologicznej. Szybkość podejmowania decyzji przez sztuczną inteligencję może prowadzić do niezamierzonej eskalacji konfliktów [...], które przyniosą zagładę zarówno technologicznej, jak i biologicznej cywilizacji, stwierdza Garrett.

    Uczony dodaje, że o ile AI może wymagać do istnienia wsparcia ze strony cywilizacji biologicznej, to ASI nie będzie tego potrzebowała. Punktem zwrotnym będzie osiągnięcie osobliwości technologicznej, punktu, w którym rozwój SI stanie się tak szybki, że przewyższy naszą inteligencję i będzie ewoluował w takim tempie, iż wszelkie nasze prognozy na ten temat staną się nieaktualne. To może doprowadzić do nieprzewidzianych konsekwencji, które prawdopodobnie nie będą miały nic wspólnego z naszymi biologicznymi interesami czy ludzką etyką. Z punktu widzenia ASI, skupionej na osiągnięciu jak największej wydajności obliczeniowej, zniknie potrzeba istnienia istot biologicznych, których obecność związana jest ze zużyciem przestrzeni i energii. Nasze istnienie będzie czymś kłopotliwym, czytamy w Acta Astronautica.

    Ryzyko zaistnienia takiej sytuacji można by zmniejszyć, kolonizując inne planety. Jeśli bowiem ASI doprowadziłaby do zagłady na jednej planecie, mieszkańcy innych ciał niebieskich mieliby szansę nie powtórzyć tych samych błędów. Co więcej, kolonizacja innych planet stwarzałaby możliwość prowadzenia eksperymentów z różnymi drogami rozwoju sztucznej inteligencji, bez ryzyka, że cała ludzkość wyginie.

    Jednak, mimo takiego możliwego scenariusza, nie wykrywamy obcych cywilizacji, co może sugerować, że ich nie ma lub nie osiągają poziomu rozwoju pozwalającego na ich wykrycie. Przyczyną – i to właśnie z tego powodu rozwój AI może być „Wielkim Filtrem” – jest tempo rozwoju sztucznej inteligencji w porównaniu z tempem rozwoju technologicznego, pozwalającego na dotarcie i trwałe zasiedlenie innych planet. Zdaniem niektórych badaczy, sztuczna inteligencja może osiągnąć punkt osobliwości technologicznej w ciągu kilku najbliższych dekad. Tymczasem zasiedlenie innych planet to zadanie na setki lat. Przyczyną takiego stanu rzeczy jest różna natura rozwoju sztucznej inteligencji i możliwości podróży w przestrzeni kosmicznej. O ile rozwój SI to głównie wyzwanie obliczeniowe i informatyczne, które jest napędzane przez wykładniczy wzrost ilości danych oraz możliwości obliczeniowych, to eksploracja kosmosu wiąże się z licznymi ograniczeniami fizycznymi, takimi jak znalezienie odpowiednich źródeł energii, stworzenie napędów, nowych materiałów, poradzenie sobie z warunkami panującymi w przestrzeni kosmicznej itp. itd. Do tego dochodzą kwestie medyczne, biologiczne, logistyczne czy polityczne. A więc wszystkie te ograniczenia, które nie istnieją w przypadku rozwoju sztucznej inteligencji.

    Swoje hipotezy Garrett przetestował korzystając z równania Drake'a, które jest próbą zrozumienia mechanizmów wpływających na szanse powstania cywilizacji w Drodze Mlecznej. Okazało się, że jeśli rzeczywiście negatywne strony rozwoju sztucznej inteligencji ujawniają się zanim cywilizacja osiągnie zdolność do kolonizacji innych planet, to czas istnienia cywilizacji zdolnej do komunikowania się z innymi wynosi 100–200 lat.

    To wyjaśniałoby, dlaczego dotychczas nie mamy żadnych dowodów na istnienie innych cywilizacji. Warto tutaj przypomnieć, że cywilizacją zdolną do komunikowania się z innymi, staliśmy się w latach 60. ubiegłego wieku. Okienko czasowe, w którym cywilizacja techniczna jest w stanie angażować się w możliwą do wykrycia komunikację radiową, jest więc niezwykle ograniczone. Dodatkowo, jeśli weźmiemy pod uwagę sygnaturę radiową ludzkiej cywilizacji – czyli wszelką transmisję odbywającą się na Ziemi, która może zostać potencjalnie zauważona i rozpoznana przez obce cywilizacje – to do jej wykrycia potrzebny jest znacznie wyższy poziom zaawansowania technologicznego niż nasze. Możliwe jest, oczywiście, zarejestrowanie silnych sygnałów celowo wysyłanych w przestrzeń kosmiczną. Jeśli jednak w danym momencie w Drodze Mlecznej istnieje zaledwie kilka cywilizacji prowadzących takie działania, to szansa na znalezienie tego typu sygnału jest minimalna.

    Zauważmy, że post-biologiczna cywilizacja techniczna byłaby bardzo dobrze dostosowana do eksploracji kosmosu i mogłaby rozprzestrzenić się po naszej Galaktyce, nie zwracając uwagi na długi czas podróży czy niekorzystne warunki panujące w kosmosie. Wielu przewiduje, że jeśli w ogóle natkniemy się na pozaziemską inteligencję, będzie miała ona formę maszyn. [...] Brak wykrywalnych sygnałów istnienia cywilizacji typu II czy III w skali Kardaszowa wskazuje, że cywilizacje takie są niezwykle rzadkie lub nie istnieją, a to wzmacnia hipotezę o istnieniu „Wielkiego Filtra” zatrzymującego postęp cywilizacji technicznej w ciągu kilku wieków od jej pojawienia się, podsumowuje Garrett.


    « powrót do artykułu
    • Lubię to (+1) 1

  16. Naukowcy z Princeton Plasma Physics Laboratory połączyli dwie znane od dawna metody, by ustabilizować plazmę w reaktorze. To kolejny, niewielki, krok w kierunku opanowania fuzji jądrowej, czystego i bezpiecznego źródła energii, nad którą prace trwają od dziesięcioleci. Obie wspomniane metody – ECCD (electron cyclotron current drive) oraz RMP (resonant magnetic perturbations) – badane są od dawna. Tym razem po raz pierwszy zasymulowano ich wspólne działanie.

    To zupełnie nowe podejście. Jeszcze nie w pełni zdajemy sobie sprawę z jego potencjału, ale nasze badania posuwają naprzód starania o jego zrozumienie, mówi Qiming Hu, główny autor artykułu opublikowanego na łamach pisma Nuclear Fusion. Badania są tym cenniejsze, że naukowcy nie poprzestali na teoretycznych obliczeniach, ale przeprowadzili też eksperymenty w tokamaku DIII-D.

    Obie metody służą poradzeniu sobie z jednym z poważnych problemów, z jakimi mierzą się reaktory fuzyjne, trybami niestabilności brzegowej (ELM). Zjawiska te destabilizują plazmę, mogą doprowadzić do zakończenia reakcji, a nawet do uszkodzenia reaktora. Najlepszą metodą ich uniknięcia jest wykorzystanie techniki RMP, która generuje dodatkowe pola magnetyczne, wyjaśnia Alessandro Bortolon. RMP tworzy tzw. wyspy magnetyczne. Zwykle jest to zjawisko bardzo szkodliwe, jednak w pewnych warunkach może być przydatne. Głównym problemem jest wygenerowanie RMP na tyle silnego, by wyspy powstały, ale niezbyt silnego, by same nie zdestabilizowały plazmy. Teraz okazało się, że ECCD pozwala na kontrolowanie wielkości wysp i stabilizowanie plazmy.

    Gdy stosowaliśmy ECCD zgodnie z kierunkiem przepływu prądu w plazmie, szerokość wysp spadała, a ciśnienie rosło. Gdy zaś ECCD stosowane było w kierunku przeciwnym, szerokość wysp się zwiększała, a ciśnienie spadało, dodaje Hu. Badania były tez o tyle istotne, że ECCD stosowano na brzegach plazmy, a nie w jej centrum. Zwykle uważa się, że stosowanie ECCD na krawędziach jest ryzykowne, gdyż mikrofale mogą uszkodzić podzespoły. Pokazaliśmy, że można to zrobić. To zaś może otworzyć drogą do zmiany projektów przyszłych urządzeń.


    « powrót do artykułu

  17. Satelity NASA pomagają w monitorowaniu habitatów jednych z najbardziej zagrożonych gatunków na Ziemi, w tym tygrysów, pum i słoni. Satelity obserwują duże obszary Ziemi. Dzięki nim naukowcy mogą monitorować habitaty, których nadzorowanie z ziemi byłoby bardzo trudne i czasochłonne. Tymczasem taki monitoring jest kluczowy z punktu widzenia gatunków takich jak na przykład tygrysy, które przemieszają się po dużych obszarach, mówi Keith Gaddis, odpowiedzialny w kwaterze głównej NASA za projekty ochrony przyrody.

    Tygrysy utraciły co najmniej 93% swoich historycznych terytoriów. Liczba tych zwierząt żyjących na wolności jest dramatycznie mała, szacuje się, że pozostało ich zaledwie 3700–5500. To i tak lepiej, niż w roku 2010, gdzie dolne szacunki mówiły o zaledwie 3200 tygrysach.

    Mimo tego, że dużo się mówi o potrzebie zachowania bioróżnorodności i tak ważnych gatunków jak drapieżniki ze szczytu łańcucha pokarmowego, ludzie wciąż odbierają tygrysom tereny do życia. Metaanaliza ponad 500 badań dotyczących tygrysów wykazała, że pomiędzy rokiem 2001 a 2020 zasięg występowania tygrysów zmniejszył się aż o 11%, spadając z 1 miliona 25 tysięcy kilometrów kwadratowych do 911 tysięcy km2. Dlatego też NASA, we współpracy z Wildlife Conservation Society opracowała narzędzie, które – korzystając z Google Earth oraz obserwacji w ramach programu NASA Earth, monitoruje w czasie rzeczywistym zmiany w habitacie tygrysów. Dane dostarczane są codziennie przez instrumenty Visible Infrared Imaging Radiometer Suite (VIIRS) zainstalowane na satelitach Landsat oraz Moderate Resolution Imaging Spectroradiometer (MODIS) z satelitów Terra i Aqua.

    Dzięki temu naukowcy zmapowali duże obszary leśne, na których obecnie tygrysy nie występują, a które nadają się do zasiedlenia przez te zwierzęta. Mogą być one potencjalnymi miejscami, w których wielkie koty zostaną reintrodukowane. Pod warunkiem, oczywiście, że jest tam dla nich wystarczająco dużo pożywienia. Jeśli tygrysy zasiedliłyby te tereny – czy to w wyniku procesu naturalnego czy reintrodukcji przeprowadzonej przez człowieka – zasięg występowania wielkich kotów zwiększyłby się o 50%. Na Ziemi jest wciąż więcej miejsca dla tygrysów, niż sądzili nawet zajmujący się nimi specjaliści. Jednak zdaliśmy sobie z tego sprawę dopiero po tym, jak zebraliśmy dane z NASA i zintegrowaliśmy je z danymi dotyczącymi tygrysów, mówi główny autor najnowszych badań, Eric Sanderson, który obecnie pracuje w New York Botanical Garden.

    W nieco lepszej sytuacji są pumy. W przeszłości występowały one od południowego-zachodu USA po Argentynę. Jednak w XX wieku utraciły 50% zasięgu. Ludzie masowo je zabijają, odbierają im też źródła pożywienia. Szacuje się, że na wolności żyje od 64 000 do 173 000 osobników. Są klasyfikowane jako gatunek bliski zagrożenia.

    Najbardziej zagrożone są pumy zamieszkujące obszar Gran Chaco. Tamtejsze nizinne lasy położone na terenie Argentyny, Boliwii, Paragwaju i Brazylii są intensywnie wycinane. Na argentyńskim obszarze Gran Chaco prawdopodobnie żyje kilkaset pum. Teraz zmapowano najważniejsze obszary dla ochrony tego i innych gatunków. Okazuje się, że 36% z nich w ogóle nie jest chronionych. Dzięki tym danym możemy przeprowadzić ponowną ocenę i zaproponować rozwiązania, stwierdza Sebastian Martinuzzi z University of Wisconsin-Madison.

    Słonie afrykańskie utraciły 85% swoich historycznych terenów, a ich liczba szybko spada. W latach 2007–2014 zmniejszyła się ona aż o 144 000 zwierząt. Obecnie liczbę dziko żyjących słoni afrykańskich szacuje się na 352 000 osobników, a gatunek niedawno uznano za zagrożony.

    Dzięki danym z NASA, zbieranym przez satelity w Maasai Mara National Reserve i pobliskich częściowo chronionych oraz niechronionych obszarach, dowiedzieliśmy się, że – szczególnie na obszarach niechronionych – słonie wybierają do życia gęste lasy, przede wszystkim wzdłuż cieków wodnych, i unikają otwartych terenów, zwłaszcza wtedy, gdy pojawiają się na nich ludzie. Tymczasem w lasach takich coraz częściej budowane są miejsca noclegowe dla turystów.

    Autorzy badań podkreślają, że jednym z najważniejszych zadań w ochronie słoni jest zapewnienie im swobodnego dostępu do lasów na obszarach niechronionych. Wpuszczanie tam turystów oznacza odbieranie im kolejnych terenów niezbędnych do życia. Uczeni proponują, by na potrzeby infrastruktury dla turystów wykorzystywać otwarte sawanny, których zwierzęta i tak unikają.


    « powrót do artykułu

  18. Zdaniem naukowców z Oregon Health & Science University kobieta używająca w czasie ciąży zarówno tytoniu, jak i marihuany, znacząco zwiększa ryzyko urodzenia dziecka o niskiej wadze, przedwczesnego porodu, a nawet śmierci potomka. Już zrezygnowanie z jednej z tych substancji znakomicie redukuje ryzyko. Marihuana jest legalizowana w kolejnych stanach, a legalizacja często rodzi przekonanie, że jest ona bezpieczna w ciąży. Wiemy, że wiele osób łączy używanie nikotyny i marihuany, postanowiliśmy więc sprawdzić, jakie są tego potencjalne skutki zarówno dla ciężarnej, jak i dla dziecka, mówi profesor ginekologii i położnictwa Jamie Lo.

    Jej zespół przeanalizował dane ponad 3 milionów ciężarnych kobiet, które przyznały się do używania marihuany i tytoniu. Już samo używanie jednej z tych substancji w czasie ciąży zwiększało ryzyko niskiej wagi urodzeniowej, przedwczesnego porodu czy śmierci dziecka. Jednak ryzyko znacząco rosło, gdy używane były obie substancje. Najbardziej było to widoczne w ryzyku zgonu dziecka. Dzieci matek, które paliły i tytoń, i marihuanę, umierały czterokrotnie częściej niż dzieci niepalących i niemal 2-krotnie częściej niż dzieci kobiet, które w ciąży korzystały tylko z jednej ze wspomnianych używek.

    Nasze prace sugerują, że unikanie już jednej z tych substancji znacząco zmniejsza ryzyko w porównaniu z sytuacją, gdy używane są obie, dodaje profesor Adam Crosland. W badania była zaangażowana również Cindy McEvoy. Specjalizuje się ona w zagadnieniach unikania negatywnego wpływu palenia przez ciężarną na układ oddechowy dziecka. Z prowadzonych przez nią wcześniej badań wynika, że suplementacja ciężarnej witaminą C pomaga dzieciom takich matek.


    « powrót do artykułu

  19. Morze Bałtyckie to niezwykle delikatny ekosystem, jedno z najbardziej zagrożonych mórz świata. Tymczasem armatorzy statków, zamiast zainwestować w czystsze technologie, inwestują w instalacje, dzięki którym zrzucają do wody odpady powstałe w procesie oczyszczania spalin. Naukowcy z Uniwersytetu Technologicznego Chalmersa obliczyli, że same tylko społeczno-ekonomiczne koszty takich działań wyniosły w latach 2014–2022 ponad 680 milionów euro.

    Prywatne firmy zaoszczędziły w ten sposób olbrzymie pieniądze, obciążając nas wszystkich kosztami swojej działalności i zanieczyszczając Bałtyk. Widzimy tutaj oczywisty konflikt interesów. Prywatne firmy odnoszą korzyści koszem jednego z najbardziej wrażliwych akwenów morskich na świecie, doktorantka Anna Lunde Hermansson.

    Wiele statków używa jako paliwa ciężkiego oleju napędowego. Jest on tani i bardzo zanieczyszcza powietrze. Jest na tyle szkodliwy, że od 2011 roku obowiązuje nałożony przez Międzynarodową Organizację Morską zakaz poruszania się statków z tym paliwem na wodach Antarktyki, a w bieżącym roku wchodzi zakaz dotyczący wód Arktyki. Ta sama organizacja wprowadziła w styczniu 2020 roku ściślejsze regulacje dotyczące emisji tlenków siarki i pyłów zawieszonych przez paliwa używane w żegludze. Większość światowej floty przestawiła się na bardziej czyste paliwa, jednak część armatorów zdecydowała się na zainstalowanie aparatów absorpcyjnych oczyszczających spaliny i nadal używają bardziej brudnych paliw.

    Badania emisji ze statków wykazały, że po wprowadzeniu regulacji światowa flota emituje mniej do atmosfery. Jednak naukowcy od dawna przestrzegają, że na oszczędności niektórych armatorów tracimy wszyscy. Aparaty absorpcyjne (skrubery), które zainstalowano na około 5000 statków, działają na zasadzie absorpcji gazu do cieczy. Ciecz wychwytuje związki, których chcemy się pozbyć i do atmosfery trafiają czystsze spaliny. Jednak statki pozbywają się zanieczyszczonej cieczy wypuszczając ją do wody. Dodatkowo zanieczyszczając m.in. Bałtyk. Taka zanieczyszczona woda zwiększa śmiertelność organizmów morskich, negatywnie wpływa na ich wzrost, prowadzi do zakwitów fitoplanktonu i zakwaszenia lokalnych wód.

    Naukowcy z Chalmers obliczyli też korzyści ekonomiczne, jakie z wykorzystywania skruberów odnieśli armatorzy 3800 używających je jednostek. Okazało się, że – w porównaniu z sytuacją, gdyby zainwestowali w napęd na czystsze paliwa – już do końca roku 2022 osiągnęli zysk w wysokości 4,7 miliarda euro. Biorąc pod uwagę fakt, że dzięki aparatom absorpcyjnym mogą nadal używać taniego, brudnego paliwa, instalacja najczęściej używanego systemu zwraca się w ciągu 5 lat. Jest to możliwe dzięki przerzucaniu kosztów na środowisko i nas wszystkich. Armatorzy twierdzą, że działają w dobrej wierze i inwestują w ekologiczne technologie zmniejszające emisję siarki do atmosfery, więc nie powinni być karani. Nasze badania wykazały, że większość inwestycji już im się zwróciła, więc ich argumentacja nie jest prawdziwa, dodaje Lunde Hermansson.

    Niektóre kraje, jak Dania, Niemcy, Francja, Turcja, Chiny czy Portugalia zabroniły lub ograniczyły możliwość wypuszczania wody ze skruberów na swoich wodach terytorialnych. Armatorzy mogą jednak bezkarnie zanieczyszczać wody innych krajów i wody międzynarodowe.

    Tymczasem Morze Bałtyckie, którego dotyczyły badania, zmaga się dodatkowo z wieloma innymi zagrożeniami. O niepokojących zmianach na Bałtyku, przeszłości i przyszłości tego morza przeczytacie w naszym wywiadzie z doktorem Tomaszem Kijewskim  z Instytutu Oceanologii Polskiej Akademii Nauk.


    « powrót do artykułu

  20. Graham Senior, nauczyciel geografii z Coventry, kopał w ogródku, gdy kilka centymetrów pod powierzchnią ziemi trafił na regularny kamień z widocznymi nacięciami. Zaintrygowany umył go, sfotografował, a zdjęcia wysłał znajomemu archeologowi. Ten stwierdził, że odkrycie jest na tyle interesujące, że warto zgłosić je do Portable Antiquities Scheme, gdzie rejestruje się przypadkowe znaleziska dokonane przez amatorów. Tamtejsza kurator przesłała zdjęcia profesor Katherinie Forsyth  z University of Glasgow, która potwierdziła, że nacięcia to wczesnośredniowieczne pismo ogham.

    Ogham to alfabetyczne pismo powstałe w IV wieku. Było to pierwsze pismo używane na terenie dzisiejszej Szkocji oraz Irlandii. Zapisywano nim język piktyjski oraz protogoidelski, od którego wywodzi się język staroirlandzki. Ogham składa się z poziomych linii ułożonych w grupy od 1 do 5 nacięć. Był stosowany zanim w Irlandii – zwanej Hibernią, a następnie Szkocją – przyjął się alfabet łaciński

    Obecnie znamy ponad 400 kamieni z ogham. Nie wiadomo, czemu one służyły. Niektórzy historycy sądzą, że były używane do rozwiązywania sporów prawnych dotyczących własności ziemi, gdyż często znajdowane są w pobliżach granic posiadłości i zapisano na nich imiona przodków.

    Napis na kamieniu znalezionym przez Seniora wykonany został we wczesnym stylu, prawdopodobnie pochodzi z V lub VI wieku, ale nie można wykluczyć, że powstał już w wieku IV. Widoczny na nim napis głosi MALDUMCAIL / S / LASS. Cześć pierwsza inskrypcji to nazwisko Mael Dumcail. Znacznie drugiej części nie jest pewne. Jak i to, dlaczego i po co znalazł się na terenie dzisiejszego Coventry w centrum Anglii.


    « powrót do artykułu

  21. Naturalni wrogowie – patogeny, roślinożerne bezkręgowce i ssaki roślinożerne – odgrywają duża rolę w kontrolowaniu populacji i dynamiki roślinności, wpływając na jej różnorodność. Brazylijscy naukowcy postanowili zająć się bardzo słabo poznanym obszarem wzajemnych zależności ze świata przyrody, a mianowicie wpływem lokalnego wytępienia dużych roślinożerców na dynamikę interakcji pomiędzy patogenami a roślinami. Ich badania przyniosły niespodziewane wnioski.

    Uczeni ogrodzili pewne fragmenty lasu deszczowego w Brazylii tak, by nie mogły się do nich dostać pekari, tapiry, mazamy i inni duzi roślinożercy. Następnie przez 15 lat porównywali uszkodzenia liści poczynione przez owady oraz patogeny na obszarach chronionych i niechronionych przed tymi zwierzętami. Odkryli w ten sposób nieznaną dotychczas rolę, jaką duzi roślinożercy odgrywają w interakcjach między patogenami a roślinami.

    Tam, gdzie roślinożercy nie byli dopuszczeni, odsetek uszkodzonych liści zmniejszył się o 9%. Było to spowodowane mniejszą aż o 29% ilością patogenów występujących na obszarach chronionych przed dużymi ssakami. Trzeba bowiem pamiętać, że roślinożerne ssaki przemieszczają się na duże odległości, roznosząc przy okazji roślinne patogeny. Odsetek liści uszkadzanych przez owady nie uległ zmianie. Na obszarach chronionych zwiększyła się też różnorodność roślinności. To sugeruje, że odsetek uszkadzanych liści spadł, gdyż z powodu braku dużych roślinożerców pojawiła się większa liczba roślin. Doszło do zmniejszenia koncentracji patogenów w masie roślin.

    Jednak tylko pozornie jest to korzystne zjawisko. Rośliny i ich patogeny to naturalni wrogowie. Prowadzą ze sobą wyścig zbrojeń. Obecność patogenów powoduje, że rośliny ewoluują różnego typu sposoby ochrony, zarówno fizyczne jak i chemiczne. Patogeny i inni wrogowie tworzą nowe metody ataku, rośliny tworzą nowe metody obrony. To jeden z kluczowych elementów ewolucji i utrzymywania bioróżnorodności, prowadzi do pojawienia się nowych gatunków roślin i nowych organizmów, które wchodzą z nimi w interakcje.

    W długim terminie osłabienie interakcji pomiędzy patogenami a roślinami – spowodowane zniknięciem dużych roślinożerców – może doprowadzić do tak znacznego osłabienia konkurencji pomiędzy niektórymi roślinami i patogenami, że przestanie od wpływać na ich ewolucję, co może prowadzić do zmniejszenia bioróżnorodności. Wniosek taki jest tym bardziej uprawomocniony, że przed rokiem niemieccy badacze wykazali, iż olbrzymia bioróżnorodność roślinożernych owadów to wynik ich konkurencji o te same źródła pożywienia. Konkurencji, która wymuszała ciągłą ewolucję.


    « powrót do artykułu

  22. Grupa naukowców z NASA prognozuje, że Teleskop Kosmiczny Nancy Grace Roman, który ma zostać wystrzelony w 2027 roku i umieszczony w punkcie libracyjnym L2, może odnaleźć czarne dziury o niezwykle niskiej masie, w tym o masie Ziemi. Odkrycie takich czarnych dziur byłoby niezwykle ważnym krokiem w rozwoju astronomii i fizyki cząstek, gdyż tego typu obiekty nie mogą powstać w ramach żadnego znanego nam procesu fizycznego, mówi William DeRocco, główny autor nowych badań. Jeśli je znajdziemy, wstrząśniemy fizyką teoretyczną, dodaje.

    Najmniejsze ze znanych nam obecnie czarnych dziur powstają w wyniku zapadnięcia się gwiazd, które zużyły całe swoje paliwo. Istnieje jednak granica masy. Gwiazda, z której powstaje czarna dziura, musi mieć masę co najmniej 8-krotnie większą, od masy Słońca. Z lżejszych gwiazd powstają białe karły lub gwiazdy neutronowe.

    Jednak fizycy przypuszczają, że na początku istnienia wszechświata mogły istnieć warunki pozwalające na tworzenie się bardzo lekkich czarnych dziur. Średnica horyzontu zdarzeń czarnej dziury o masie Ziemi wynosiłaby mniej niż 2 centymetry. Na początku wszechświata bowiem, podczas krótkiej fazy zwanej inflacją kosmologiczną, wszechświat rozszerzał się szybciej niż prędkość światła. Obszary, które były gęstsze niż otoczenie, mogły się zapadać, tworząc pierwotne czarne dziury o niskiej masie. Najmniejsze z nich powinny wyparować, zanim wszechświat osiągnął obecny wiek. Jednak te o masie podobnej do masy Ziemi powinny przetrwać do naszych czasów.

    Ich odkrycie miałoby olbrzymie znaczenie. ƒWpłynęłoby na nasze rozumienie wielu rzeczy, od tworzenia się galaktyk, przez skład ciemnej materii, po historię kosmosu. Znalezienie ich i potwierdzenie, że to właśnie one będzie trudne, a astronomowie będą musieli zebrać dużo przekonujących dowodów. Ale gra warta jest świeczki, mówi Kailash Sahu ze Space Telescope Science Institute, który nie był zaangażowany w omawiane badania.

    Już obecnie wyniki niektórych obserwacji wskazują, że tego typu czarne dziury mogą podróżować po wszechświecie. Oczywiście nie możemy ich bezpośrednio zobaczyć, ale jesteśmy w stanie obserwować wywoływane przez nie zniekształcenia czasoprzestrzeni. Objawiają się one w postaci mikrosoczewkowania gwiazd w tle. Takie przypadki mikrosoczewkowania zaobserwowano w danych z projektów MOA (Microlensing Observations in Astrophysics) oraz OGLE (Optical Gravitational Lensing Experiment). Wynika z nich, że w przestrzeni kosmicznej znajduje się zaskakująco dużo izolowanych obiektów o masie Ziemi. Oczywiście teorie formowania się planet dopuszczają istnienie samotnych planet, które nie są powiązane z żadną gwiazdą i swobodnie się przemieszczają. Jednak z danych MOA i OGLE wynika, że liczba takich obiektów jest większa, niż szacowana liczba planet swobodnych. Na podstawie izolowanych obserwacji nie jesteśmy w stanie stwierdzić, czy do mikrosoczewkowania doszło z powodu samotnej planety czy czarnej dziury o masie Ziemi. Jednak naukowcy uważają, że Teleskop Roman zarejestruje aż 10-krotnie więcej tego typu obiektów niż teleskopy naziemne i na podstawie obliczeń statystycznych będziemy mogli obliczyć, czy udało się zauważyć niezwykle lekkie czarne dziury.

    Jeśli astronomowie rzeczywiście je znajdą, potwierdzą istnienie okresu inflacji kosmologicznej czy też będą w stanie wyjaśnić, dlaczego zauważyliśmy dotychczas tak niewiele ciemnej materii, mimo że stanowi ona niemal 27% masy wszechświata.


    « powrót do artykułu

  23. W latach 2010–2020 na północnym-wschodzie Pacyfiku notowano rekordowe wysokie temperatury powierzchni wody. Pojawiły się liczne długotrwałe fale ekstremalnych upałów. Częściowo mogło się do tego przyczynić naturalna coroczna zmienność klimatu, jednak naukowców zastanawiało, dlaczego zjawiska takie były bardziej intensywne i dochodziło do nich częściej niż wcześniej. Grupa uczonych z Chin, USA i Niemiec rozwiązała zagadkę, a swoje wnioski opisała na łamach PNAS.

    Upały na Pacyfiku doprowadziły między innymi do masowego wymierania ryb i zakwitów glonów. Generalnie rzecz biorąc, coraz bardziej intensywne i coraz częściej zdarzające się fale upałów wiązane są z globalnym ociepleniem, trudno jest jednak powiązać konkretne fale z konkretnymi działaniami czy mechanizmami. Autorzy najnowszych badań wykorzystali – między innymi – różne modele klimatyczne oraz inne dane i powiązali to, co działo się na Pacyfiku z... polityką rządu w Pekinie. Ich zdaniem, upały w północno-wschodniej części największego oceanu były spowodowane udaną redukcją zanieczyszczenia aerozolami w Chinach.

    Od mniej więcej roku 2010 w Państwie Środka przemysł zaczął wdrażać bardziej restrykcyjne zasady dotyczące emisji zanieczyszczeń. Badacze wiedzieli, że aerozole odbijają promieniowanie słoneczne w przestrzeń kosmiczną, zapobiegając ogrzewaniu przez nie powierzchni planety. Ponadto wcześniejsze badania w innych miejscach świata wskazywały na istnienie związku pomiędzy redukcją zanieczyszczeń, a ociepleniem. Tak było na przykład w przypadku wschodnich i centralnych obszarów USA, które przez kilka dziesięcioleci XX wieku były „dziurą ociepleniową”, a gdy poziom zanieczyszczeń zredukowano, zaczęły się szybko ogrzewać.

    Autorzy nowych badań chcieli sprawdzić, czy tak jest i w interesującym ich przypadku. Zebrali dane i wprowadzili je do 12 różnych modeli klimatycznych. Każdy z modeli miał do przeanalizowania dwie sytuacje. Pierwsza, gdy emisje zanieczyszczeń ze wschodnich części Azji pozostają na tym samym poziomie, na jakim były przez ostatnie dekady, a druga – gdy ma miejsce spadek zanieczyszczeń taki, do jakiego doszło w wyniku redukcji chińskiej emisji. Okazało się, że tylko w przypadku redukcji emisji modele przewidywały pojawienie się fal upałów w północno-wschodnich częściach Pacyfiku.

    Modele pozwoliły też na opisanie mechanizmu. Gdy mniej ciepła było odbijane w przestrzeń kosmiczną nad Chinami, dochodziło do ogrzewania wybrzeży Państwa Środka, co prowadziło do rozwoju układów wysokiego ciśnienia. W wyniku tego zaś systemy układy niskiego ciśnienia w środkowym Pacyfiku są bardziej intensywne. A to zaś powoduje, że niż baryczny nad Aleutami rozszerza swój zasięg i przesuwa się na południe, co osłabia wiatry zachodnie ochładzające powierzchnię morza. To z kolei prowadzi do bardziej intensywnego ocieplania się badanego obszaru.


    « powrót do artykułu

  24. Naukowcy z Zakładu Astrofizyki Narodowego Centrum Badań Jądrowych badali fotoparowanie pyłu międzygwiazdowego i znaczenie tego zjawiska dla ewolucji galaktyk. Pył, ważny element ośrodka międzygwiazdowego, wpływa na powstawanie nowych molekuł, ochładzanie gazu – co z kolei wpływa na tworzenie gwiazd – rozkład energii w galaktykach, pozwala nam też na szacowanie właściwości fizycznych galaktyk, jak tempo formowania się gwiazd czy ich łączna masa. Ilość pyłu w galaktykach nie jest jednak stała. Zmienia się ona pod wpływem wybuchów supernowych, galaktycznych odpływów czy wskutek fotoparowania.

    Tam, gdzie intensywnie formują się gwiazdy oraz w pobliżu mgławic planetarnych, powstaje dużo promieniowania o wysokich energiach. Promieniowanie to jest pochłaniane przez pył, którego cząsteczki ulegają podgrzaniu. A jeśli zostaną podgrzane do odpowiednio wysokiej temperatury, wyparują. Zjawisko to – fotoparowanie – wpływa na ilość dostępnego pyłu, co może mieć znaczenie w galaktykach o niskiej metaliczności [metalami w rozumieniu astronomicznym są pierwiastki cięższe od helu – red.] oraz na wczesnych etapach życia wszechświata, gdy powstawały większe i bardziej gorące gwiazdy niż teraz.

    Skupiliśmy się na tym, czy poza falami uderzeniowymi z supernowych, odpływami galaktycznymi i procesem astracji, również fotoparowanie może efektywnie wpływać na zanikanie pyłu w ośrodku międzygwiazdowym, mówi główny autor publikacji, doktor Ambra Nanni z NCBJ. Naukowcy przeanalizowali ewolucję gazu i pyłu zarówno w krótkich (poniżej 100 milionów lat) i długich (liczonych w miliardach lat) skalach czasu. Stwierdzili, że fotoparowanie odpowiada jedynie za od 10-8 do 10-6 niszczenia pyłu na każdą masę Słońca w powstających gwiazdach. Nie jest więc to zjawisko, które miałoby duży wpływ na dostępność pyłu w galaktykach.


    « powrót do artykułu

  25. W świecie zwierząt, gdy samica posiadająca młode traci partnera i akceptuje nowego, często oznacza to wyrok śmierci dla potomstwa. Nowy partner, robią tak na przykład lwy czy goryle, zabija dzieci poprzednika, by mieć pewność, że młode o które będzie się troszczył, są jego. Okazuje się, że rację miał Sievert Rohner, kurator kolekcji ptaków w Burke Museum, gdy w 1986 roku przewidywał, że niektóre ptaki mogą adoptować młode poprzednika. Robi tak przynajmniej jeden gatunek, a sukces reprodukcyjny samca, który adoptuje, jest taki sam, co samca decydującego się na zabicie potomstwa poprzednika.

    Rok po tym, jak Rohner wysunął swoją hipotezę, Steve Beissinger, ekolog na Uniwersytecie Kalifornijskim w Berkeley, rozpoczął instalowanie na jednej z farm w Wenezueli budek lęgowych dla niewielkiej papugi, wróbliczki zielonorzytnej. Następnie kilka dekad prowadził obserwacje tego gatunku.

    Dowiedział się, że w populacji występuje niemal 2-krotnie więcej samców niż samic, a zwierzęta tworzą pary na całe życie. Gdy jedno z pary wcześniej umiera (częściej dzieje się tak w przypadku samców), w ciągu godziny wokół gniazda samotnej samicy gromadzą się konkurujące o nią samce. I, jak się okazuje, nie zawsze zabijają młode poprzednika.

    Beissinger i jego zespół monitorowali 2742 budki lęgowe. Udało się im zaobserwować 346 budek, w których miało miejsce zabójstwo młodych lub adopcja. W 256 z nich doszło do zabicia młodych i zniszczenia jajek. W aż 69% przypadków (177) sprawcami takich wydarzeń były obce pary, które przepędziły parę gniazdującą, zajmując budkę. W pozostałych 31% (79) sprawcą był jeden z przybranych rodziców, zwykle samiec.

    Okazało się jednak, że wróbliczki nie zawsze zabijają potomstwo poprzednika czy poprzedniczki. W ponad połowie przypadków – pozostałych 90 z 346 zaobserwowanych – samiec zaakceptowany przez owdowiałą samicę, nie zabił młodych. Czasami działo się tak, gdyż samica nie wpuściła nowego samca do gniazda. Jednak w innych przypadkach samiec miał dostęp do gniazda i zaczynał opiekować się młodymi poprzednika. A szczegółowe analizy pokazały, że samce adoptujące miały w sumie tyle samo własnego potomstwa, co samce zabijające. To zaś podważa dotychczasowe przekonanie, że adopcja potomstwa poprzednika niekorzystnie wpływa na sukces reprodukcyjny samca.

    Niewykluczone, że adopcja potomstwa wpływa na zacieśnienie więzi między owdowiałą samicą a ojczymem jej młodych, dzięki czemu samiec ma wcześniej – zwykle pisklęta były adoptowane przez młodsze samce – i częściej okazję do rozmnażania się.


    « powrót do artykułu
×
×
  • Dodaj nową pozycję...