Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37623
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    246

Zawartość dodana przez KopalniaWiedzy.pl

  1. Rada Języka Polskiego ogłosiła, że od 1 stycznia 2026 roku w życie wejdzie kilka zmian w polskiej pisowni. Zmiany te dotyczą niektórych zasad używania wielkich i małych liter, pisowni łącznej lub rozdzielnej oraz używania łącznika. Celem zmian jest ujednolicenie zasad oraz ułatwienie ich nauczenia się i stosowania. Zmiany wejdą w życie za kilkanaście miesięcy, pozostało więc sporo czasu, by przyswoić sobie nowe zasady. Warto więc zapamiętać, że od stycznia 2026 roku przymiotniki od nazw własnych zakończone na -owski (np. chopinowski) będziemy zawsze pisali małą literą. Natomiast nazwy mieszkańców utworzone od nazw geograficznych – zawsze wielką literą. Zatem zarówno nazwa mieszkańca stolicy Włoch, jak i obywatela Imperium Romanum będzie zapisywana Rzymianin. Dowolność będziemy zaś mieli przy zapisywaniu przymiotników utworzonych o imion, a zakończonych na -owy, -in(yn) oraz -ów. Poprawne będą więc formy Jackowe dzieci, Zosina lalka, jak i jackowe dzieci oraz zosina lalka. Wielką lub małą literą będziemy mogli też pisać nieoficjalne nazwy etniczne, na przykład makaroniarz lub Makaroniarz. Wielką literą będziemy zapisywali też nazwy pojedynczych egzemplarzy wyrobów przemysłowych, niezależnie od tego, czy chodzi o firmę i markę, czy o konkretny egzemplarz. Napiszemy zatem zarówno ciężarówka marki Ford, jak i przed domem stoi czerwony Ford. Wielka litera będzie też obowiązywała przy wszystkich członach nazw własnych, również geograficznych. Zatem obowiązywać będzie pisownia Wyspa Uznam, Półwysep Hel oraz nazw obiektów topograficznych (Aleja Róż, Park Kościuszki, Plac Zbawiciela, Kościół Mariacki). Jedynie wyraz ulica będzie pisany małą literą: ulica Józefa Piłsudskiego. Zmiany zajdą też w pisowni partykuły nie z przymiotnikami i przysłówkami odprzymiotnikowymi. Również w stopniu wyższym i najwyższym. Zatem napiszemy nielepszy, nielepiej. Obowiązkowy będzie też zapis łączny nie z imiesłowami odmiennymi, bez względu na ich znaczenie (niepalący, nieumyty). Łącznie będziemy pisać wyrażenia takie jak półżartem, półserio a także cząstki niby- i quasi- z wyrazami pisanymi małą literą (nibyartysta, quasiopiekun). Rada zdecydowała się rozdzielić cząstki -bym, -byś, -by, -byśmy od spójników. Będziemy więc pisać Zastanawiam się, czy by nie pojechać w góry. Dopuszczalna będzie rozdzielna (obok łącznej) pisownia cząstek super-, ekstra-, eko-, wege-, mini- i podobnych. Nie popełni więc błędu ten, kto napisze superpomysł, ani zwolennik formy super pomysł. Dozwolona zostanie też wariantywna pisownia (z łącznikiem, przecinkiem lub spacją) wyrażeń typu tuż-tuż. Będziemy mogli napisać tak, jak obecnie, ale również tuż, tuż oraz tuż tuż. Zmian czeka nas więcej, a z wszystkimi można zapoznać się na stronie Rady w załączniku nr 1 do komunikatu z dnia 10 maja 2024 roku. « powrót do artykułu
  2. Kaszaloty spermacetowate to posiadacze największych mózgów w przyrodzie. Dotychczasowe badania pokazują, że są niezwykle inteligentnymi zwierzętami. Wykazują zaawansowane zachowania społeczne, podejmują wspólne decyzje, obserwujemy ich złożone zachowania. Jednak wciąż bardzo mało o nich wiemy. W Nature Communications ukazał się właśnie artykuł, którego autorzy sugerują, że sposób porozumiewania się kaszalotów może być bardziej podobny do ludzkiego języka, niż nam się wydawało. Badacze z należącego do MIT Computer Science and Artificial Intelligence Lab (CSAIL) połączyli siły z naukowcami pracującemu przy Project CETI, inicjatywie wykorzystującej sztuczną inteligencję do zrozumienia waleni. Tym razem jednak nie użyto AI, ale zaawansowanych metod statystycznych, które wykazały, że wokalizacje kaszalotów są podobne do ludzkich wokalizacji. Dzięki wykorzystaniu modeli statystycznych, a nie sztucznej inteligencji, naukowcy mogli stworzyć bardziej czytelny obraz badanego zagadnienia. Jak tłumaczą, korzyścią z podejścia statystycznego jest fakt, że nie trzeba trenować modelu sieci neuronowej, nie mamy więc „czarnej skrzynki”, której wnętrze jest tajemnicą, więc całość łatwiej jest analizować. Algorytm pozwolił na zamianę poszczególnych wokalizacji – a zbadano ich aż 8719 i pochodziły one od około 60 osobników – w szczegółowe wizualizacje, które ujawniły, że część wokalizacji zawierała dodatkowe elementy, których dotychczas nie zauważono. Różnice takie nie były też przypadkowe. Elementy te, w połączeniu z różnym czasem wokalizacji i interakcjami zachodzącymi pomiędzy różnymi kaszalotami sugerują, że wokalizacje zawierają więcej informacji i są bardziej złożone wewnętrznie, niż sądziliśmy. Profesor Jacob Andreas z CSAIL mówi, że możemy sobie wyobrazić odkrytą właśnie różnicę w taki oto sposób, że dotychczas wokalizacje kaszalotów uważano za system odpowiadający egipskim hieroglifom, a nowe badania wskazują, że mogą być one literami. To, jak na razie, tylko hipoteza, gdyż wciąż nie potrafimy interpretować poszczególnych wokalizacji, nie wiemy, czy mają one związek z pozycją narządów służących do wokalizacji, ani czy łączą się w zdania. Naukowcy są jednak pewni, że istnieje znacznie więcej rodzajów wokalizacji i znacznie więcej różnic pomiędzy poszczególnymi dźwiękami niż sądzono, a kaszaloty są w stanie je odbierać i rozumieć. W następnym etapie badań naukowcy spróbują stworzyć modele językowe wokalizacji waleni i sprawdzić, czy wpływają one jakoś na ich zachowanie. Chcieliby też rozpocząć prace nad bardziej ogólnym modelem językowym, który można będzie dostosowywać do różnych gatunków. Nie będzie to łatwe zadanie, gdyż praktycznie niczego nie wiemy o metodach komunikacji zwierząt. Jednak od czasu, gdy do badań nad językami zwierząt zaczęto używać sztucznej inteligencji, specjaliści coraz bardziej interesują się tym zagadnieniem. Caroline Casey z Uniwersytetu Kalifornijskiego w Santa Cruz, która od ponad dekady bada wokalizacje mirung mówi, że jest bardzo trudno udowodnić, że dany sygnał znaczy dla zwierzęcia to, co ludzie sądzą, że znaczy. Uczona dodaje, że o ile opisywany artykuł bardzo dobrze opisuje subtelne różnice akustyczne w różnych wokalizacjach, to kolejny krok – zrozumienie znaczenia tych wokalizacji – będzie niezwykle trudny. « powrót do artykułu
  3. Wycieki ropy naftowej do oceanów to jedne z najpoważniejszych katastrof ekologicznych. Niszczą one morskie życie i mają na nie długotrwały negatywny wpływ. Naukowcy z chińskiego Centralnego Uniwersytetu Południowego w Changsha i Uniwersytetu Ben Guriona odkryli, że korek, poddany działaniu femtosekundowego lasera, szybko rozgrzewa się pod wpływem promieni słonecznych, stając się świetnym absorbentem ropy naftowej. Badając reakcję korka na różnego rodzaju światło laserowe, przypadkiem odkryliśmy, że potraktowany laserem korek znacząco się zmienia, zyskując właściwości superhydrofobowe i superoleofilne. Po odpowiednim dobraniu parametrów lasera, powierzchnia korka stała się bardzo ciemna i zdaliśmy sobie sprawę, że może być on doskonałym materiałem do konwersji fototermicznej, wyjaśnia główny autor badań, Yuchun He. Właściwości, jakie pod wpływem lasera zyskał korek, oraz fakt, że jest on materiałem przyjaznym środowisku i poddającym się recyklingowi, nasunęły badaczom myśl o wykorzystaniu go do zbierania ropy z powierzchni wody. O ile nam wiadomo, nikt nie próbował wykorzystywać korka do likwidacji skutków wycieków ropy, dodaje Kai Yin. Naukowcy przeprowadzili serię badań, w czasie których precyzyjnie dobierali pożądane właściwości korka, starając się przy tym robić to jak najmniejszym kosztem, oraz badali nanoskopowe zmiany strukturalne w materiale, mierzyli zmiany poziomu tlenu i węgla, zmiany kąta styku wody i ropy z korkiem, absorpcję, odbicie i emisje fal elektromagnetycznych korka oraz jego wytrzymałość na wielokrotne cykle ogrzewania i schładzania. W końcu uzyskali materiał, który bardzo szybko – w ciągu kilkunastu sekund – znacznie rozgrzewał się pod wpływem promieni słonecznych, dzięki czemu znakomicie zwiększały się jego możliwości absorpcji ropy. Materiał był w stanie zaabsorbować w ciągu 200 sekund nieco ponad 4 gramy ropy na każdy cm2 powierzchni. Tak dobre właściwości absorpcyjne, w połączeniu z dostępnością korka i faktem, że jest on przyjazny środowisku, mogą czynić z niego świetny materiał do likwidacji wycieków ropy naftowej. « powrót do artykułu
  4. Podczas prac archeologicznych podjętych w związku z rozbudową drogi w pobliżu Benson w Oxfordshire, naukowcy znaleźli dobrze zachowaną studnię z epoki brązu. Specjalistów najbardziej cieszy fakt, że świetnie zachowała się drewniana struktura studni. Sprzyjały temu odpowiednie warunki, duża ilość wody w glebie. Pozwoliła ona zachować zabytek, ale utrudniała pracę archeologom. Mimo trudności, naukowcy odsłonili całą studnię i wykonali jej trójwymiarowy model cyfrowy. Następnie została ona rozebrana kawałek po kawałku i przesłana do Oxfordshire Museum Service, gdzie zostanie zakonserwowana i dokładnie przebadana. Epoka brązu trwała na Wyspach Brytyjskich od około 2500 roku p.n.e. do ok. 700 r. p.n.e. Studnia nie jest jedynym zabytkiem z tego okresu. W Benson i okolicach, aż do Wallingford znajdowano już ślady ludzkiego osadnictwa z tej epoki. Dzięki temu odkryciu lepiej zrozumiemy antropogeniczny krajobraz przeszłości i dowiemy się, na jak dużym obszarze ludzie byli aktywni. John Boothroyd, jeden z menedżerów Oxford Archaeology, która prowadziła wykopaliska, mówi, że początkowo naukowcy sądzili, iż trafili na typową dla stanowiska jamę. Jednak w pewnym momencie odsłonili wbity pionowo w ziemię drewniany pal. Z czasem okazało się, że stanowi on fragment plecionki, którą wyłożono krawędzie studni. Zachowane drewniane struktury z tego okresu to rzadkość, dodaje. Oprócz studni znaleziono też kości zwierząt oraz fragmenty ceramiki. « powrót do artykułu
  5. Obecny wzrost poziomu dwutlenku węgla jest 10-krotnie szybszy, niż w jakimkolwiek momencie ostatnich 50 000 lat, stwierdzili naukowcy, którzy przeprowadzili szczegółową analizę chemiczną lodu z Antarktyki. Wyniki badań zespołu z USA, Wielkiej Brytanii, Australii, Szwajcarii, Niemiec i Argentyny zostały opublikowane na łamach PNAS. Badanie przeszłości pokazuje nam, jak bardzo różna jest teraźniejszość. Dzisiejsze tempo zmiany koncentracji dwutlenku węgla jest naprawdę bezprecedensowe, mówi profesor Kathleen Wendt z Oregon State University. Zidentyfikowaliśmy okres najszybszego naturalnego przyrostu CO2 i stwierdziliśmy, że dzisiejsze tempo wzrostu, napędzane głównie przez człowieka, jest 10-krotnie większe, dodaje uczona. Lód, który gromadził się w Antarktyce przez setki tysięcy lat, zawiera bąbelki powietrza. Naukowcy wykorzystali lód z odwiertów o głębokości 3,2 kilometrów, by zbadać skład tego powietrza i na jego podstawie odtworzyć dawny klimat Ziemi. W czasie ostatnich kilkudziesięciu tysięcy lat były liczne momenty, gdy poziom dwutlenku węgla wzrastał znacznie ponad zwykły poziom. Naukowcy wiedzą, że te skoki pojawiały się pod koniec tzw. zdarzeń Heinricha, w czasie których od lądolodu północnoatlantyckiego odrywały się wielkie góry lodowe i dryfowały na północnym Atlantyku. Słodka woda z roztapiających się gór lodowych zmieniała stratyfikację oceanu i wpływała na cyrkulację termohalinową, prowadząc do zmian klimatycznych. Wydarzenia Heinricha są naprawdę znaczące. Uważamy, że były one powodowane przez dramatyczne załamania się pokryw lodowych na północny Atlantyku. Powodowało to reakcję łańcuchową, w skład której wchodziły zmiany w monsunach tropikalnych, w wiatrach zachodnich na Półkuli Południowej oraz w wielkim uwalnianiu się CO2 z oceanów, mówi współautor badań, Christo Buizert. Z najnowszych badań dowiadujemy się, że do największych zmian doszło podczas Zdarzenia Heinricha 4, kiedy to koncentracja CO2 wzrosła w ciągu około 55 lat o około 14 ppm. Obecnie średnie tempo wzrostu dla dekady 2014–2024 wynosi 2,97 ppm rocznie, zatem przyrost o 14 ppm następuje w ciągu 5–6 lat. Jest więc 10-krotnie szybsze, niż wówczas. Warto też zauważyć, że wciąż się ono zwiększa. W dekadzie 1984–1994 średnioroczny wzrost wynosił 1,52 ppm, w dekadzie 1994–2004 było to 1,81 ppm, a dla dekady 2004–2014 odnotowano 2,10 ppm/rok. Dowody wskazują, że zachodnie wiatry, które odgrywają ważną rolę w cyrkulacji w głębinach oceanicznych, wzmagały się, co prowadziło do uwalniania dwutlenku węgla z Oceanu Południowego. Obecnie niektóre badania sugerują, że w najbliższych dekadach może dojść do wzmocnienia wiatrów zachodnich, a jeśli tak się stanie, to zmniejszy się zdolność Oceanu Południowego do pochłaniania dwutlenku węgla. « powrót do artykułu
  6. Patobiolodzy z The Royal Veterinary College w Wielkiej Brytanii i naukowcy z Narodowego Uniwersytetu Chung Hsing na Tajwanie stworzyli tabelę demograficzną kotów żyjących w Wielkiej Brytanii. To ważny krok w kierunku zrozumienia długości życia tych zwierząt oraz ich umieralności i czynników wpływających na zgony. Naukowcy przyjrzeli się 7936 kotom, które zmarły pomiędzy 1 stycznia 2019 a 31 marca 2021 roku. Następnie dane te przeanalizowali pod kątem płci i rasy. Z analiz wynika, że oczekiwana długość życia kota w Wielkiej Brytanii, który nie przekroczył jeszcze 1. roku życia, wynosi 11,7 lat. Samice mogą spodziewać się życia o 1,33 roku dłuższego niż samce. Najdłużej żyją koty burmskie i birmańskie. Średnia długość ich życia to 14,4 lat. Na drugim miejscu uplasowały się koty ras mieszanych (11,9), a na trzecim miejscu koty syjamskie (11,7). Na najkrótsze życie pupila muszą przygotować się zaś posiadacze sfinksów. Rasa ta żyje średnio 6,8 roku. Niewiele dłużej, bo średnio 8,5 roku żyją koty bengalskie. Czynnikami, które skracają życie wszystkich kotów jest czysta przynależność rasowa oraz odbiegająca od idealnej (w górę lub w dół) masa ciała. Zwykle koty czystej rasy żyły o 1,5 roku krócej niż koty ras mieszanych. I to właśnie koty wśród ras mieszanych byli koci rekordziści. Najstarszy kot, którego dane odnotowano w badaniach przeżył niemal 27 lat i był mieszańcem. Najstarszy kot burmski miał ponad 21 lat, a najstarszy birmański przekroczył 22. rok życia. Z kolei najstarszy sfinks nie dożył 15 lat. Ważnym czynnikiem odgrywającym rolę w śmiertelności kotów w młodym wieku była kastracja. Koty niekastrowane były narażone na ponad 4-krotnie większe ryzyko zgonu przed 3. rokiem życia niż koty kastrowane. Z artykułem opisującym badania można zapoznać się na łamach Journal of Feline Medicine and Surgery. « powrót do artykułu
  7. Camp Nou, Wembley czy Old Trafford to dla fanów piłki nożnej miejsca niemal święte. Dla Majów zaś ich boiska były dosłownie miejscami świętymi. Archeolodzy z University of Cincinnati znaleźli szczątki roślin wykorzystywanych w ceremoniałach religijnych pod boiskiem na stanowisku archeologicznym Yaxnohcah. Rośliny, znane z właściwości halucynogennych i leczniczych, zostały prawdopodobnie złożone w ceremonii poświęcenia boiska. Profesor David Lentz i jego koledzy, we współpracy z meksykańskim Narodowym Instytutem Antropologii, uczonymi z University of Calgary, Universidad Autónoma de Campeche i Universidad Nacional Autónoma de México od dawna badają kultury Mezoameryki. W latach 2016–2022 prowadzili wykopaliska na boisku w Yaxnohcah (nazwa ta oznacza Pierwszy Wielki Dom). Był to duży ośrodek składający się z co najmniej 15 kompleksów ceremonialnych i publicznych, rozrzuconych na obszarze 42 km2. Stanowisko znajduje się 21 kilometrów na południowy-wschód od bardziej znanego Calakmul. Jest ono niezwykle ważne dla badań nad cywilizacją Majów epoki przedklasycznej. Najstarsze znalezione tam ślady osadnictwa pochodzą sprzed 1000 roku p.n.e. Majowie znali wiele gier w piłkę, w tym pok-a-tok, której zasady przypominały nieco dzisiejsza piłkę nożną i koszykówkę. Celem graczy było przerzucenie piłki przez pierścień umieszczony na ścianie. Jednak nie wszystkie boiska miały takie pierścienie. Dzisiaj postrzegamy boiska wyłącznie jako miejsca rozrywki. Jednak dla Majów były one czymś więcej. Były one niezwykle ważnym elementem kompleksów ceremonialnych. Stanowiły niezbędną część miasta, wyjaśnia profesor Lentz. Nic dziwnego, że miejsca takie były poświęcane. Majowie nie różnili się w tym tak bardzo od nas. Obecnie również odbywają się ceremonie – i świeckie, i religijne – takie jak symboliczne wbicie pierwszej łopaty, przecięcie wstęgi, chrzest statku, związane z rozpoczęciem czy zakończeniem przedsięwzięcia budowlanego czy konstrukcyjnego. Lentz i jego grupa prowadzili badania w jednym z 15 grup monumentalnej architektury, kompleksie Helena. Znajduje się tam 1-metrowej wysokości platforma z kamienia i ziemi. Początkowo był to skromny budynek, który z czasem rozrastał się w monumentalną architekturę. Z czasem w miejscach takich rozrastających się platform chowano ważnych członków społeczności, nadając miejscom specjalne znaczenie. Struktury takie jak Helena były żywe, miały dusze, które trzeba było odżywiać, mówi profesor Nicholas Dunning. Gdy zmieniano przeznaczenie takiego miejsca lub je przebudowywano, składano ofiary, by je błogosławić. Czasami archeolodzy znajdują ceramikę czy biżuterię, będącą częścią takich darów ofiarnych. Ze źródeł etnohistorycznych od dawna wiemy, że Majowie używali też materiałów organicznych, jednak niezwykle trudno je znaleźć. Dlatego właśnie nasze odkrycie jest tak wyjątkowe, wyjaśnia Dunning. To właśnie on odkrył próbki, w których znaleziono materiał genetyczny roślin złożonych w ceremonii. Specjalistyczne badania ujawniły, że wśród ofiarowanych bogom roślin znajdowała się Ipomoea corymbosa, gatunek pnącza z rodziny powojowatych o znanych właściwościach halucynogennych. Obecnie w Meksyku wytwarza się miód pitny z dodatkiem nasion tej rośliny. Zidentyfikowano też papryczki chili, używane przez Majów również jako lekarstwo. Bogom ofiarowano też Hampea trilobata, roślinę z rodziny ślazowatych oraz Oxandra lanceolata, którego liście zawierają substancje powodujące rozkurcz mięśni gładkich naczyń krwionośnych – a więc spadek ciśnienia krwi – znieczulające i odkażające. Naukowcy stwierdzili, że znalezienie tych ważnych dla Majów roślin w jednym miejscu w skoncentrowanej próbce wskazuje, iż zostały one celowo umieszczone pod platformą. « powrót do artykułu
  8. W Acta Astronautica ukazał się interesujący artykuł, którego autor – Michael A. Garrett, dyrektor Jodrell Bank Centre for Astrophysics na University of Manchester – zastanawia się czy to nie sztuczna inteligencja jest przyczyną, dla której nie odkryliśmy dotychczas sygnałów wysłanych przez obcą cywilizację. Uczony rozważa możliwość, że SI jest wąskim gardłem rozwoju, które w rzeczywistości zagraża długoterminowemu przetrwaniu cywilizacji technicznej. Garrett bada hipotezę, że szybki rozwój sztucznej inteligencji (AI), którego kulminacją jest pojawienie się sztucznej superinteligencji (ASI – artificial superintelligence), działa jak „Wielki Filtr”, który jest odpowiedzialny za niewielką liczbę zaawansowanych cywilizacji technologicznych we wszechświecie. Taki filtr mógłby pojawiać się, zanim cywilizacje rozwiną stabilną obecność na kolejnych planetach, co sugeruje, że typowy czas życia cywilizacji technicznej wynosi mniej niż 200 lat. Koncepcja „Wielkiego Filtra” jest próbą rozwiązania Paradoksu Fermiego. Został on sformułowany przez Enrico Fermiego, a dotyczy rzucającej się w oczy sprzeczności pomiędzy wiekiem wszechświata i liczbą gwiazd, a faktem, że dotychczas nie wykryliśmy żadnych dowodów na istnienie innej cywilizacji. Dotychczas zaproponowano kilka „Wielkich Filtrów”, uniwersalnych barier mających uniemożliwiać rozprzestrzenianie się inteligentnego życia we wszechświecie, a od niedawna pojawiają się koncepcje mówiące, że filtrem takim może być SI. Uczony z Manchesteru przychyla się do opinii, że „Wielkim Filtrem” może być rozwój sztucznej inteligencji. Przypomina, że najnowsze dokonania w dziedzinie SI pozwalają maszynom na uczenie się, dostosowywanie i wykonywanie zadań, które do niedawna uważano za wyłączną ludzką domenę. Sztuczna inteligencja jest w coraz większym stopniu włączana w nasze codzienne życie, wpływa na kształt interakcji międzyludzkich, sposobów współpracy, interakcji z technologią oraz na postrzeganie świata. Zmienia sposoby komunikacji i doświadczenia osobiste. Ma wpływ na handel, opiekę zdrowotną, pojazdy autonomiczne, prognozy gospodarcze, badania naukowe, prace badawczo-rozwojowe, edukację, przemysł, politykę, bezpieczeństwo i obronę. Trudno jest znaleźć dziedzinę życia, która nie byłaby już naznaczona obecnością sztucznej inteligencji, stwierdza Garrett. W związku z rozwojem SI pojawiają się kolejne obawy wiązane z miejscami pracy, prywatnością danych, etycznym podejmowaniem decyzji czy odpowiedzialnością za nie. Sztuczna inteligencja ma też wpływ na środowisko naturalne, chociażby poprzez olbrzymie moce obliczeniowe, jakich potrzebuje i związane z tym zużycie energii. W 2014 roku Stephen Hawking ostrzegał, że AI może doprowadzić do zagłady ludzkości. Uważał, że w pewnym momencie może ona zacząć rozwijać się samodzielni, w coraz szybszym tempie. Obecnie coraz częściej pojawiają się głosy o konieczności opracowania metod lepszej kontroli nad AI czy też propozycje wprowadzenia moratorium na jej używanie, dopóki takie metody kontroli nie powstaną. Z jednej strony rządy wielu państw próbują znaleźć równowagę pomiędzy korzyściami, jakie daje rozwój sztucznej inteligencji, a potencjalnymi zagrożeniami. Z drugiej zaś zdają sobie sprawę, że szybkie wdrażanie i rozwój AI daje przewagę nad innymi państwami, a ponadto może zabezpieczać przed ryzykiem stwarzanym przez państwa z rozwiniętą sztuczną inteligencją. Szczególnie dotyczy to kwestii bezpieczeństwa narodowego i obrony. Sztuczna inteligencja rozwija się błyskawicznie w porównaniu z naturalnym tempem ewolucji, tymczasem nic w naszej historii nie przygotowało nas na pojawienie się innej wysoko rozwiniętej inteligencji. I można przypuszczać, że uwagi te dotyczą każdej cywilizacji, która mogła powstać we wszechświecie. Zanim jeszcze AI stanie się superinteligentna i potencjalnie autonomiczna, prawdopodobnie zostanie uzbrojona przez konkurujące ze sobą grupy w ramach jednej cywilizacji biologicznej. Szybkość podejmowania decyzji przez sztuczną inteligencję może prowadzić do niezamierzonej eskalacji konfliktów [...], które przyniosą zagładę zarówno technologicznej, jak i biologicznej cywilizacji, stwierdza Garrett. Uczony dodaje, że o ile AI może wymagać do istnienia wsparcia ze strony cywilizacji biologicznej, to ASI nie będzie tego potrzebowała. Punktem zwrotnym będzie osiągnięcie osobliwości technologicznej, punktu, w którym rozwój SI stanie się tak szybki, że przewyższy naszą inteligencję i będzie ewoluował w takim tempie, iż wszelkie nasze prognozy na ten temat staną się nieaktualne. To może doprowadzić do nieprzewidzianych konsekwencji, które prawdopodobnie nie będą miały nic wspólnego z naszymi biologicznymi interesami czy ludzką etyką. Z punktu widzenia ASI, skupionej na osiągnięciu jak największej wydajności obliczeniowej, zniknie potrzeba istnienia istot biologicznych, których obecność związana jest ze zużyciem przestrzeni i energii. Nasze istnienie będzie czymś kłopotliwym, czytamy w Acta Astronautica. Ryzyko zaistnienia takiej sytuacji można by zmniejszyć, kolonizując inne planety. Jeśli bowiem ASI doprowadziłaby do zagłady na jednej planecie, mieszkańcy innych ciał niebieskich mieliby szansę nie powtórzyć tych samych błędów. Co więcej, kolonizacja innych planet stwarzałaby możliwość prowadzenia eksperymentów z różnymi drogami rozwoju sztucznej inteligencji, bez ryzyka, że cała ludzkość wyginie. Jednak, mimo takiego możliwego scenariusza, nie wykrywamy obcych cywilizacji, co może sugerować, że ich nie ma lub nie osiągają poziomu rozwoju pozwalającego na ich wykrycie. Przyczyną – i to właśnie z tego powodu rozwój AI może być „Wielkim Filtrem” – jest tempo rozwoju sztucznej inteligencji w porównaniu z tempem rozwoju technologicznego, pozwalającego na dotarcie i trwałe zasiedlenie innych planet. Zdaniem niektórych badaczy, sztuczna inteligencja może osiągnąć punkt osobliwości technologicznej w ciągu kilku najbliższych dekad. Tymczasem zasiedlenie innych planet to zadanie na setki lat. Przyczyną takiego stanu rzeczy jest różna natura rozwoju sztucznej inteligencji i możliwości podróży w przestrzeni kosmicznej. O ile rozwój SI to głównie wyzwanie obliczeniowe i informatyczne, które jest napędzane przez wykładniczy wzrost ilości danych oraz możliwości obliczeniowych, to eksploracja kosmosu wiąże się z licznymi ograniczeniami fizycznymi, takimi jak znalezienie odpowiednich źródeł energii, stworzenie napędów, nowych materiałów, poradzenie sobie z warunkami panującymi w przestrzeni kosmicznej itp. itd. Do tego dochodzą kwestie medyczne, biologiczne, logistyczne czy polityczne. A więc wszystkie te ograniczenia, które nie istnieją w przypadku rozwoju sztucznej inteligencji. Swoje hipotezy Garrett przetestował korzystając z równania Drake'a, które jest próbą zrozumienia mechanizmów wpływających na szanse powstania cywilizacji w Drodze Mlecznej. Okazało się, że jeśli rzeczywiście negatywne strony rozwoju sztucznej inteligencji ujawniają się zanim cywilizacja osiągnie zdolność do kolonizacji innych planet, to czas istnienia cywilizacji zdolnej do komunikowania się z innymi wynosi 100–200 lat. To wyjaśniałoby, dlaczego dotychczas nie mamy żadnych dowodów na istnienie innych cywilizacji. Warto tutaj przypomnieć, że cywilizacją zdolną do komunikowania się z innymi, staliśmy się w latach 60. ubiegłego wieku. Okienko czasowe, w którym cywilizacja techniczna jest w stanie angażować się w możliwą do wykrycia komunikację radiową, jest więc niezwykle ograniczone. Dodatkowo, jeśli weźmiemy pod uwagę sygnaturę radiową ludzkiej cywilizacji – czyli wszelką transmisję odbywającą się na Ziemi, która może zostać potencjalnie zauważona i rozpoznana przez obce cywilizacje – to do jej wykrycia potrzebny jest znacznie wyższy poziom zaawansowania technologicznego niż nasze. Możliwe jest, oczywiście, zarejestrowanie silnych sygnałów celowo wysyłanych w przestrzeń kosmiczną. Jeśli jednak w danym momencie w Drodze Mlecznej istnieje zaledwie kilka cywilizacji prowadzących takie działania, to szansa na znalezienie tego typu sygnału jest minimalna. Zauważmy, że post-biologiczna cywilizacja techniczna byłaby bardzo dobrze dostosowana do eksploracji kosmosu i mogłaby rozprzestrzenić się po naszej Galaktyce, nie zwracając uwagi na długi czas podróży czy niekorzystne warunki panujące w kosmosie. Wielu przewiduje, że jeśli w ogóle natkniemy się na pozaziemską inteligencję, będzie miała ona formę maszyn. [...] Brak wykrywalnych sygnałów istnienia cywilizacji typu II czy III w skali Kardaszowa wskazuje, że cywilizacje takie są niezwykle rzadkie lub nie istnieją, a to wzmacnia hipotezę o istnieniu „Wielkiego Filtra” zatrzymującego postęp cywilizacji technicznej w ciągu kilku wieków od jej pojawienia się, podsumowuje Garrett. « powrót do artykułu
  9. Naukowcy z Princeton Plasma Physics Laboratory połączyli dwie znane od dawna metody, by ustabilizować plazmę w reaktorze. To kolejny, niewielki, krok w kierunku opanowania fuzji jądrowej, czystego i bezpiecznego źródła energii, nad którą prace trwają od dziesięcioleci. Obie wspomniane metody – ECCD (electron cyclotron current drive) oraz RMP (resonant magnetic perturbations) – badane są od dawna. Tym razem po raz pierwszy zasymulowano ich wspólne działanie. To zupełnie nowe podejście. Jeszcze nie w pełni zdajemy sobie sprawę z jego potencjału, ale nasze badania posuwają naprzód starania o jego zrozumienie, mówi Qiming Hu, główny autor artykułu opublikowanego na łamach pisma Nuclear Fusion. Badania są tym cenniejsze, że naukowcy nie poprzestali na teoretycznych obliczeniach, ale przeprowadzili też eksperymenty w tokamaku DIII-D. Obie metody służą poradzeniu sobie z jednym z poważnych problemów, z jakimi mierzą się reaktory fuzyjne, trybami niestabilności brzegowej (ELM). Zjawiska te destabilizują plazmę, mogą doprowadzić do zakończenia reakcji, a nawet do uszkodzenia reaktora. Najlepszą metodą ich uniknięcia jest wykorzystanie techniki RMP, która generuje dodatkowe pola magnetyczne, wyjaśnia Alessandro Bortolon. RMP tworzy tzw. wyspy magnetyczne. Zwykle jest to zjawisko bardzo szkodliwe, jednak w pewnych warunkach może być przydatne. Głównym problemem jest wygenerowanie RMP na tyle silnego, by wyspy powstały, ale niezbyt silnego, by same nie zdestabilizowały plazmy. Teraz okazało się, że ECCD pozwala na kontrolowanie wielkości wysp i stabilizowanie plazmy. Gdy stosowaliśmy ECCD zgodnie z kierunkiem przepływu prądu w plazmie, szerokość wysp spadała, a ciśnienie rosło. Gdy zaś ECCD stosowane było w kierunku przeciwnym, szerokość wysp się zwiększała, a ciśnienie spadało, dodaje Hu. Badania były tez o tyle istotne, że ECCD stosowano na brzegach plazmy, a nie w jej centrum. Zwykle uważa się, że stosowanie ECCD na krawędziach jest ryzykowne, gdyż mikrofale mogą uszkodzić podzespoły. Pokazaliśmy, że można to zrobić. To zaś może otworzyć drogą do zmiany projektów przyszłych urządzeń. « powrót do artykułu
  10. Satelity NASA pomagają w monitorowaniu habitatów jednych z najbardziej zagrożonych gatunków na Ziemi, w tym tygrysów, pum i słoni. Satelity obserwują duże obszary Ziemi. Dzięki nim naukowcy mogą monitorować habitaty, których nadzorowanie z ziemi byłoby bardzo trudne i czasochłonne. Tymczasem taki monitoring jest kluczowy z punktu widzenia gatunków takich jak na przykład tygrysy, które przemieszają się po dużych obszarach, mówi Keith Gaddis, odpowiedzialny w kwaterze głównej NASA za projekty ochrony przyrody. Tygrysy utraciły co najmniej 93% swoich historycznych terytoriów. Liczba tych zwierząt żyjących na wolności jest dramatycznie mała, szacuje się, że pozostało ich zaledwie 3700–5500. To i tak lepiej, niż w roku 2010, gdzie dolne szacunki mówiły o zaledwie 3200 tygrysach. Mimo tego, że dużo się mówi o potrzebie zachowania bioróżnorodności i tak ważnych gatunków jak drapieżniki ze szczytu łańcucha pokarmowego, ludzie wciąż odbierają tygrysom tereny do życia. Metaanaliza ponad 500 badań dotyczących tygrysów wykazała, że pomiędzy rokiem 2001 a 2020 zasięg występowania tygrysów zmniejszył się aż o 11%, spadając z 1 miliona 25 tysięcy kilometrów kwadratowych do 911 tysięcy km2. Dlatego też NASA, we współpracy z Wildlife Conservation Society opracowała narzędzie, które – korzystając z Google Earth oraz obserwacji w ramach programu NASA Earth, monitoruje w czasie rzeczywistym zmiany w habitacie tygrysów. Dane dostarczane są codziennie przez instrumenty Visible Infrared Imaging Radiometer Suite (VIIRS) zainstalowane na satelitach Landsat oraz Moderate Resolution Imaging Spectroradiometer (MODIS) z satelitów Terra i Aqua. Dzięki temu naukowcy zmapowali duże obszary leśne, na których obecnie tygrysy nie występują, a które nadają się do zasiedlenia przez te zwierzęta. Mogą być one potencjalnymi miejscami, w których wielkie koty zostaną reintrodukowane. Pod warunkiem, oczywiście, że jest tam dla nich wystarczająco dużo pożywienia. Jeśli tygrysy zasiedliłyby te tereny – czy to w wyniku procesu naturalnego czy reintrodukcji przeprowadzonej przez człowieka – zasięg występowania wielkich kotów zwiększyłby się o 50%. Na Ziemi jest wciąż więcej miejsca dla tygrysów, niż sądzili nawet zajmujący się nimi specjaliści. Jednak zdaliśmy sobie z tego sprawę dopiero po tym, jak zebraliśmy dane z NASA i zintegrowaliśmy je z danymi dotyczącymi tygrysów, mówi główny autor najnowszych badań, Eric Sanderson, który obecnie pracuje w New York Botanical Garden. W nieco lepszej sytuacji są pumy. W przeszłości występowały one od południowego-zachodu USA po Argentynę. Jednak w XX wieku utraciły 50% zasięgu. Ludzie masowo je zabijają, odbierają im też źródła pożywienia. Szacuje się, że na wolności żyje od 64 000 do 173 000 osobników. Są klasyfikowane jako gatunek bliski zagrożenia. Najbardziej zagrożone są pumy zamieszkujące obszar Gran Chaco. Tamtejsze nizinne lasy położone na terenie Argentyny, Boliwii, Paragwaju i Brazylii są intensywnie wycinane. Na argentyńskim obszarze Gran Chaco prawdopodobnie żyje kilkaset pum. Teraz zmapowano najważniejsze obszary dla ochrony tego i innych gatunków. Okazuje się, że 36% z nich w ogóle nie jest chronionych. Dzięki tym danym możemy przeprowadzić ponowną ocenę i zaproponować rozwiązania, stwierdza Sebastian Martinuzzi z University of Wisconsin-Madison. Słonie afrykańskie utraciły 85% swoich historycznych terenów, a ich liczba szybko spada. W latach 2007–2014 zmniejszyła się ona aż o 144 000 zwierząt. Obecnie liczbę dziko żyjących słoni afrykańskich szacuje się na 352 000 osobników, a gatunek niedawno uznano za zagrożony. Dzięki danym z NASA, zbieranym przez satelity w Maasai Mara National Reserve i pobliskich częściowo chronionych oraz niechronionych obszarach, dowiedzieliśmy się, że – szczególnie na obszarach niechronionych – słonie wybierają do życia gęste lasy, przede wszystkim wzdłuż cieków wodnych, i unikają otwartych terenów, zwłaszcza wtedy, gdy pojawiają się na nich ludzie. Tymczasem w lasach takich coraz częściej budowane są miejsca noclegowe dla turystów. Autorzy badań podkreślają, że jednym z najważniejszych zadań w ochronie słoni jest zapewnienie im swobodnego dostępu do lasów na obszarach niechronionych. Wpuszczanie tam turystów oznacza odbieranie im kolejnych terenów niezbędnych do życia. Uczeni proponują, by na potrzeby infrastruktury dla turystów wykorzystywać otwarte sawanny, których zwierzęta i tak unikają. « powrót do artykułu
  11. Zdaniem naukowców z Oregon Health & Science University kobieta używająca w czasie ciąży zarówno tytoniu, jak i marihuany, znacząco zwiększa ryzyko urodzenia dziecka o niskiej wadze, przedwczesnego porodu, a nawet śmierci potomka. Już zrezygnowanie z jednej z tych substancji znakomicie redukuje ryzyko. Marihuana jest legalizowana w kolejnych stanach, a legalizacja często rodzi przekonanie, że jest ona bezpieczna w ciąży. Wiemy, że wiele osób łączy używanie nikotyny i marihuany, postanowiliśmy więc sprawdzić, jakie są tego potencjalne skutki zarówno dla ciężarnej, jak i dla dziecka, mówi profesor ginekologii i położnictwa Jamie Lo. Jej zespół przeanalizował dane ponad 3 milionów ciężarnych kobiet, które przyznały się do używania marihuany i tytoniu. Już samo używanie jednej z tych substancji w czasie ciąży zwiększało ryzyko niskiej wagi urodzeniowej, przedwczesnego porodu czy śmierci dziecka. Jednak ryzyko znacząco rosło, gdy używane były obie substancje. Najbardziej było to widoczne w ryzyku zgonu dziecka. Dzieci matek, które paliły i tytoń, i marihuanę, umierały czterokrotnie częściej niż dzieci niepalących i niemal 2-krotnie częściej niż dzieci kobiet, które w ciąży korzystały tylko z jednej ze wspomnianych używek. Nasze prace sugerują, że unikanie już jednej z tych substancji znacząco zmniejsza ryzyko w porównaniu z sytuacją, gdy używane są obie, dodaje profesor Adam Crosland. W badania była zaangażowana również Cindy McEvoy. Specjalizuje się ona w zagadnieniach unikania negatywnego wpływu palenia przez ciężarną na układ oddechowy dziecka. Z prowadzonych przez nią wcześniej badań wynika, że suplementacja ciężarnej witaminą C pomaga dzieciom takich matek. « powrót do artykułu
  12. Morze Bałtyckie to niezwykle delikatny ekosystem, jedno z najbardziej zagrożonych mórz świata. Tymczasem armatorzy statków, zamiast zainwestować w czystsze technologie, inwestują w instalacje, dzięki którym zrzucają do wody odpady powstałe w procesie oczyszczania spalin. Naukowcy z Uniwersytetu Technologicznego Chalmersa obliczyli, że same tylko społeczno-ekonomiczne koszty takich działań wyniosły w latach 2014–2022 ponad 680 milionów euro. Prywatne firmy zaoszczędziły w ten sposób olbrzymie pieniądze, obciążając nas wszystkich kosztami swojej działalności i zanieczyszczając Bałtyk. Widzimy tutaj oczywisty konflikt interesów. Prywatne firmy odnoszą korzyści koszem jednego z najbardziej wrażliwych akwenów morskich na świecie, doktorantka Anna Lunde Hermansson. Wiele statków używa jako paliwa ciężkiego oleju napędowego. Jest on tani i bardzo zanieczyszcza powietrze. Jest na tyle szkodliwy, że od 2011 roku obowiązuje nałożony przez Międzynarodową Organizację Morską zakaz poruszania się statków z tym paliwem na wodach Antarktyki, a w bieżącym roku wchodzi zakaz dotyczący wód Arktyki. Ta sama organizacja wprowadziła w styczniu 2020 roku ściślejsze regulacje dotyczące emisji tlenków siarki i pyłów zawieszonych przez paliwa używane w żegludze. Większość światowej floty przestawiła się na bardziej czyste paliwa, jednak część armatorów zdecydowała się na zainstalowanie aparatów absorpcyjnych oczyszczających spaliny i nadal używają bardziej brudnych paliw. Badania emisji ze statków wykazały, że po wprowadzeniu regulacji światowa flota emituje mniej do atmosfery. Jednak naukowcy od dawna przestrzegają, że na oszczędności niektórych armatorów tracimy wszyscy. Aparaty absorpcyjne (skrubery), które zainstalowano na około 5000 statków, działają na zasadzie absorpcji gazu do cieczy. Ciecz wychwytuje związki, których chcemy się pozbyć i do atmosfery trafiają czystsze spaliny. Jednak statki pozbywają się zanieczyszczonej cieczy wypuszczając ją do wody. Dodatkowo zanieczyszczając m.in. Bałtyk. Taka zanieczyszczona woda zwiększa śmiertelność organizmów morskich, negatywnie wpływa na ich wzrost, prowadzi do zakwitów fitoplanktonu i zakwaszenia lokalnych wód. Naukowcy z Chalmers obliczyli też korzyści ekonomiczne, jakie z wykorzystywania skruberów odnieśli armatorzy 3800 używających je jednostek. Okazało się, że – w porównaniu z sytuacją, gdyby zainwestowali w napęd na czystsze paliwa – już do końca roku 2022 osiągnęli zysk w wysokości 4,7 miliarda euro. Biorąc pod uwagę fakt, że dzięki aparatom absorpcyjnym mogą nadal używać taniego, brudnego paliwa, instalacja najczęściej używanego systemu zwraca się w ciągu 5 lat. Jest to możliwe dzięki przerzucaniu kosztów na środowisko i nas wszystkich. Armatorzy twierdzą, że działają w dobrej wierze i inwestują w ekologiczne technologie zmniejszające emisję siarki do atmosfery, więc nie powinni być karani. Nasze badania wykazały, że większość inwestycji już im się zwróciła, więc ich argumentacja nie jest prawdziwa, dodaje Lunde Hermansson. Niektóre kraje, jak Dania, Niemcy, Francja, Turcja, Chiny czy Portugalia zabroniły lub ograniczyły możliwość wypuszczania wody ze skruberów na swoich wodach terytorialnych. Armatorzy mogą jednak bezkarnie zanieczyszczać wody innych krajów i wody międzynarodowe. Tymczasem Morze Bałtyckie, którego dotyczyły badania, zmaga się dodatkowo z wieloma innymi zagrożeniami. O niepokojących zmianach na Bałtyku, przeszłości i przyszłości tego morza przeczytacie w naszym wywiadzie z doktorem Tomaszem Kijewskim  z Instytutu Oceanologii Polskiej Akademii Nauk. « powrót do artykułu
  13. Graham Senior, nauczyciel geografii z Coventry, kopał w ogródku, gdy kilka centymetrów pod powierzchnią ziemi trafił na regularny kamień z widocznymi nacięciami. Zaintrygowany umył go, sfotografował, a zdjęcia wysłał znajomemu archeologowi. Ten stwierdził, że odkrycie jest na tyle interesujące, że warto zgłosić je do Portable Antiquities Scheme, gdzie rejestruje się przypadkowe znaleziska dokonane przez amatorów. Tamtejsza kurator przesłała zdjęcia profesor Katherinie Forsyth  z University of Glasgow, która potwierdziła, że nacięcia to wczesnośredniowieczne pismo ogham. Ogham to alfabetyczne pismo powstałe w IV wieku. Było to pierwsze pismo używane na terenie dzisiejszej Szkocji oraz Irlandii. Zapisywano nim język piktyjski oraz protogoidelski, od którego wywodzi się język staroirlandzki. Ogham składa się z poziomych linii ułożonych w grupy od 1 do 5 nacięć. Był stosowany zanim w Irlandii – zwanej Hibernią, a następnie Szkocją – przyjął się alfabet łaciński Obecnie znamy ponad 400 kamieni z ogham. Nie wiadomo, czemu one służyły. Niektórzy historycy sądzą, że były używane do rozwiązywania sporów prawnych dotyczących własności ziemi, gdyż często znajdowane są w pobliżach granic posiadłości i zapisano na nich imiona przodków. Napis na kamieniu znalezionym przez Seniora wykonany został we wczesnym stylu, prawdopodobnie pochodzi z V lub VI wieku, ale nie można wykluczyć, że powstał już w wieku IV. Widoczny na nim napis głosi MALDUMCAIL / S / LASS. Cześć pierwsza inskrypcji to nazwisko Mael Dumcail. Znacznie drugiej części nie jest pewne. Jak i to, dlaczego i po co znalazł się na terenie dzisiejszego Coventry w centrum Anglii. « powrót do artykułu
  14. Naturalni wrogowie – patogeny, roślinożerne bezkręgowce i ssaki roślinożerne – odgrywają duża rolę w kontrolowaniu populacji i dynamiki roślinności, wpływając na jej różnorodność. Brazylijscy naukowcy postanowili zająć się bardzo słabo poznanym obszarem wzajemnych zależności ze świata przyrody, a mianowicie wpływem lokalnego wytępienia dużych roślinożerców na dynamikę interakcji pomiędzy patogenami a roślinami. Ich badania przyniosły niespodziewane wnioski. Uczeni ogrodzili pewne fragmenty lasu deszczowego w Brazylii tak, by nie mogły się do nich dostać pekari, tapiry, mazamy i inni duzi roślinożercy. Następnie przez 15 lat porównywali uszkodzenia liści poczynione przez owady oraz patogeny na obszarach chronionych i niechronionych przed tymi zwierzętami. Odkryli w ten sposób nieznaną dotychczas rolę, jaką duzi roślinożercy odgrywają w interakcjach między patogenami a roślinami. Tam, gdzie roślinożercy nie byli dopuszczeni, odsetek uszkodzonych liści zmniejszył się o 9%. Było to spowodowane mniejszą aż o 29% ilością patogenów występujących na obszarach chronionych przed dużymi ssakami. Trzeba bowiem pamiętać, że roślinożerne ssaki przemieszczają się na duże odległości, roznosząc przy okazji roślinne patogeny. Odsetek liści uszkadzanych przez owady nie uległ zmianie. Na obszarach chronionych zwiększyła się też różnorodność roślinności. To sugeruje, że odsetek uszkadzanych liści spadł, gdyż z powodu braku dużych roślinożerców pojawiła się większa liczba roślin. Doszło do zmniejszenia koncentracji patogenów w masie roślin. Jednak tylko pozornie jest to korzystne zjawisko. Rośliny i ich patogeny to naturalni wrogowie. Prowadzą ze sobą wyścig zbrojeń. Obecność patogenów powoduje, że rośliny ewoluują różnego typu sposoby ochrony, zarówno fizyczne jak i chemiczne. Patogeny i inni wrogowie tworzą nowe metody ataku, rośliny tworzą nowe metody obrony. To jeden z kluczowych elementów ewolucji i utrzymywania bioróżnorodności, prowadzi do pojawienia się nowych gatunków roślin i nowych organizmów, które wchodzą z nimi w interakcje. W długim terminie osłabienie interakcji pomiędzy patogenami a roślinami – spowodowane zniknięciem dużych roślinożerców – może doprowadzić do tak znacznego osłabienia konkurencji pomiędzy niektórymi roślinami i patogenami, że przestanie od wpływać na ich ewolucję, co może prowadzić do zmniejszenia bioróżnorodności. Wniosek taki jest tym bardziej uprawomocniony, że przed rokiem niemieccy badacze wykazali, iż olbrzymia bioróżnorodność roślinożernych owadów to wynik ich konkurencji o te same źródła pożywienia. Konkurencji, która wymuszała ciągłą ewolucję. « powrót do artykułu
  15. Grupa naukowców z NASA prognozuje, że Teleskop Kosmiczny Nancy Grace Roman, który ma zostać wystrzelony w 2027 roku i umieszczony w punkcie libracyjnym L2, może odnaleźć czarne dziury o niezwykle niskiej masie, w tym o masie Ziemi. Odkrycie takich czarnych dziur byłoby niezwykle ważnym krokiem w rozwoju astronomii i fizyki cząstek, gdyż tego typu obiekty nie mogą powstać w ramach żadnego znanego nam procesu fizycznego, mówi William DeRocco, główny autor nowych badań. Jeśli je znajdziemy, wstrząśniemy fizyką teoretyczną, dodaje. Najmniejsze ze znanych nam obecnie czarnych dziur powstają w wyniku zapadnięcia się gwiazd, które zużyły całe swoje paliwo. Istnieje jednak granica masy. Gwiazda, z której powstaje czarna dziura, musi mieć masę co najmniej 8-krotnie większą, od masy Słońca. Z lżejszych gwiazd powstają białe karły lub gwiazdy neutronowe. Jednak fizycy przypuszczają, że na początku istnienia wszechświata mogły istnieć warunki pozwalające na tworzenie się bardzo lekkich czarnych dziur. Średnica horyzontu zdarzeń czarnej dziury o masie Ziemi wynosiłaby mniej niż 2 centymetry. Na początku wszechświata bowiem, podczas krótkiej fazy zwanej inflacją kosmologiczną, wszechświat rozszerzał się szybciej niż prędkość światła. Obszary, które były gęstsze niż otoczenie, mogły się zapadać, tworząc pierwotne czarne dziury o niskiej masie. Najmniejsze z nich powinny wyparować, zanim wszechświat osiągnął obecny wiek. Jednak te o masie podobnej do masy Ziemi powinny przetrwać do naszych czasów. Ich odkrycie miałoby olbrzymie znaczenie. ƒWpłynęłoby na nasze rozumienie wielu rzeczy, od tworzenia się galaktyk, przez skład ciemnej materii, po historię kosmosu. Znalezienie ich i potwierdzenie, że to właśnie one będzie trudne, a astronomowie będą musieli zebrać dużo przekonujących dowodów. Ale gra warta jest świeczki, mówi Kailash Sahu ze Space Telescope Science Institute, który nie był zaangażowany w omawiane badania. Już obecnie wyniki niektórych obserwacji wskazują, że tego typu czarne dziury mogą podróżować po wszechświecie. Oczywiście nie możemy ich bezpośrednio zobaczyć, ale jesteśmy w stanie obserwować wywoływane przez nie zniekształcenia czasoprzestrzeni. Objawiają się one w postaci mikrosoczewkowania gwiazd w tle. Takie przypadki mikrosoczewkowania zaobserwowano w danych z projektów MOA (Microlensing Observations in Astrophysics) oraz OGLE (Optical Gravitational Lensing Experiment). Wynika z nich, że w przestrzeni kosmicznej znajduje się zaskakująco dużo izolowanych obiektów o masie Ziemi. Oczywiście teorie formowania się planet dopuszczają istnienie samotnych planet, które nie są powiązane z żadną gwiazdą i swobodnie się przemieszczają. Jednak z danych MOA i OGLE wynika, że liczba takich obiektów jest większa, niż szacowana liczba planet swobodnych. Na podstawie izolowanych obserwacji nie jesteśmy w stanie stwierdzić, czy do mikrosoczewkowania doszło z powodu samotnej planety czy czarnej dziury o masie Ziemi. Jednak naukowcy uważają, że Teleskop Roman zarejestruje aż 10-krotnie więcej tego typu obiektów niż teleskopy naziemne i na podstawie obliczeń statystycznych będziemy mogli obliczyć, czy udało się zauważyć niezwykle lekkie czarne dziury. Jeśli astronomowie rzeczywiście je znajdą, potwierdzą istnienie okresu inflacji kosmologicznej czy też będą w stanie wyjaśnić, dlaczego zauważyliśmy dotychczas tak niewiele ciemnej materii, mimo że stanowi ona niemal 27% masy wszechświata. « powrót do artykułu
  16. W latach 2010–2020 na północnym-wschodzie Pacyfiku notowano rekordowe wysokie temperatury powierzchni wody. Pojawiły się liczne długotrwałe fale ekstremalnych upałów. Częściowo mogło się do tego przyczynić naturalna coroczna zmienność klimatu, jednak naukowców zastanawiało, dlaczego zjawiska takie były bardziej intensywne i dochodziło do nich częściej niż wcześniej. Grupa uczonych z Chin, USA i Niemiec rozwiązała zagadkę, a swoje wnioski opisała na łamach PNAS. Upały na Pacyfiku doprowadziły między innymi do masowego wymierania ryb i zakwitów glonów. Generalnie rzecz biorąc, coraz bardziej intensywne i coraz częściej zdarzające się fale upałów wiązane są z globalnym ociepleniem, trudno jest jednak powiązać konkretne fale z konkretnymi działaniami czy mechanizmami. Autorzy najnowszych badań wykorzystali – między innymi – różne modele klimatyczne oraz inne dane i powiązali to, co działo się na Pacyfiku z... polityką rządu w Pekinie. Ich zdaniem, upały w północno-wschodniej części największego oceanu były spowodowane udaną redukcją zanieczyszczenia aerozolami w Chinach. Od mniej więcej roku 2010 w Państwie Środka przemysł zaczął wdrażać bardziej restrykcyjne zasady dotyczące emisji zanieczyszczeń. Badacze wiedzieli, że aerozole odbijają promieniowanie słoneczne w przestrzeń kosmiczną, zapobiegając ogrzewaniu przez nie powierzchni planety. Ponadto wcześniejsze badania w innych miejscach świata wskazywały na istnienie związku pomiędzy redukcją zanieczyszczeń, a ociepleniem. Tak było na przykład w przypadku wschodnich i centralnych obszarów USA, które przez kilka dziesięcioleci XX wieku były „dziurą ociepleniową”, a gdy poziom zanieczyszczeń zredukowano, zaczęły się szybko ogrzewać. Autorzy nowych badań chcieli sprawdzić, czy tak jest i w interesującym ich przypadku. Zebrali dane i wprowadzili je do 12 różnych modeli klimatycznych. Każdy z modeli miał do przeanalizowania dwie sytuacje. Pierwsza, gdy emisje zanieczyszczeń ze wschodnich części Azji pozostają na tym samym poziomie, na jakim były przez ostatnie dekady, a druga – gdy ma miejsce spadek zanieczyszczeń taki, do jakiego doszło w wyniku redukcji chińskiej emisji. Okazało się, że tylko w przypadku redukcji emisji modele przewidywały pojawienie się fal upałów w północno-wschodnich częściach Pacyfiku. Modele pozwoliły też na opisanie mechanizmu. Gdy mniej ciepła było odbijane w przestrzeń kosmiczną nad Chinami, dochodziło do ogrzewania wybrzeży Państwa Środka, co prowadziło do rozwoju układów wysokiego ciśnienia. W wyniku tego zaś systemy układy niskiego ciśnienia w środkowym Pacyfiku są bardziej intensywne. A to zaś powoduje, że niż baryczny nad Aleutami rozszerza swój zasięg i przesuwa się na południe, co osłabia wiatry zachodnie ochładzające powierzchnię morza. To z kolei prowadzi do bardziej intensywnego ocieplania się badanego obszaru. « powrót do artykułu
  17. Naukowcy z Zakładu Astrofizyki Narodowego Centrum Badań Jądrowych badali fotoparowanie pyłu międzygwiazdowego i znaczenie tego zjawiska dla ewolucji galaktyk. Pył, ważny element ośrodka międzygwiazdowego, wpływa na powstawanie nowych molekuł, ochładzanie gazu – co z kolei wpływa na tworzenie gwiazd – rozkład energii w galaktykach, pozwala nam też na szacowanie właściwości fizycznych galaktyk, jak tempo formowania się gwiazd czy ich łączna masa. Ilość pyłu w galaktykach nie jest jednak stała. Zmienia się ona pod wpływem wybuchów supernowych, galaktycznych odpływów czy wskutek fotoparowania. Tam, gdzie intensywnie formują się gwiazdy oraz w pobliżu mgławic planetarnych, powstaje dużo promieniowania o wysokich energiach. Promieniowanie to jest pochłaniane przez pył, którego cząsteczki ulegają podgrzaniu. A jeśli zostaną podgrzane do odpowiednio wysokiej temperatury, wyparują. Zjawisko to – fotoparowanie – wpływa na ilość dostępnego pyłu, co może mieć znaczenie w galaktykach o niskiej metaliczności [metalami w rozumieniu astronomicznym są pierwiastki cięższe od helu – red.] oraz na wczesnych etapach życia wszechświata, gdy powstawały większe i bardziej gorące gwiazdy niż teraz. Skupiliśmy się na tym, czy poza falami uderzeniowymi z supernowych, odpływami galaktycznymi i procesem astracji, również fotoparowanie może efektywnie wpływać na zanikanie pyłu w ośrodku międzygwiazdowym, mówi główny autor publikacji, doktor Ambra Nanni z NCBJ. Naukowcy przeanalizowali ewolucję gazu i pyłu zarówno w krótkich (poniżej 100 milionów lat) i długich (liczonych w miliardach lat) skalach czasu. Stwierdzili, że fotoparowanie odpowiada jedynie za od 10-8 do 10-6 niszczenia pyłu na każdą masę Słońca w powstających gwiazdach. Nie jest więc to zjawisko, które miałoby duży wpływ na dostępność pyłu w galaktykach. « powrót do artykułu
  18. W świecie zwierząt, gdy samica posiadająca młode traci partnera i akceptuje nowego, często oznacza to wyrok śmierci dla potomstwa. Nowy partner, robią tak na przykład lwy czy goryle, zabija dzieci poprzednika, by mieć pewność, że młode o które będzie się troszczył, są jego. Okazuje się, że rację miał Sievert Rohner, kurator kolekcji ptaków w Burke Museum, gdy w 1986 roku przewidywał, że niektóre ptaki mogą adoptować młode poprzednika. Robi tak przynajmniej jeden gatunek, a sukces reprodukcyjny samca, który adoptuje, jest taki sam, co samca decydującego się na zabicie potomstwa poprzednika. Rok po tym, jak Rohner wysunął swoją hipotezę, Steve Beissinger, ekolog na Uniwersytecie Kalifornijskim w Berkeley, rozpoczął instalowanie na jednej z farm w Wenezueli budek lęgowych dla niewielkiej papugi, wróbliczki zielonorzytnej. Następnie kilka dekad prowadził obserwacje tego gatunku. Dowiedział się, że w populacji występuje niemal 2-krotnie więcej samców niż samic, a zwierzęta tworzą pary na całe życie. Gdy jedno z pary wcześniej umiera (częściej dzieje się tak w przypadku samców), w ciągu godziny wokół gniazda samotnej samicy gromadzą się konkurujące o nią samce. I, jak się okazuje, nie zawsze zabijają młode poprzednika. Beissinger i jego zespół monitorowali 2742 budki lęgowe. Udało się im zaobserwować 346 budek, w których miało miejsce zabójstwo młodych lub adopcja. W 256 z nich doszło do zabicia młodych i zniszczenia jajek. W aż 69% przypadków (177) sprawcami takich wydarzeń były obce pary, które przepędziły parę gniazdującą, zajmując budkę. W pozostałych 31% (79) sprawcą był jeden z przybranych rodziców, zwykle samiec. Okazało się jednak, że wróbliczki nie zawsze zabijają potomstwo poprzednika czy poprzedniczki. W ponad połowie przypadków – pozostałych 90 z 346 zaobserwowanych – samiec zaakceptowany przez owdowiałą samicę, nie zabił młodych. Czasami działo się tak, gdyż samica nie wpuściła nowego samca do gniazda. Jednak w innych przypadkach samiec miał dostęp do gniazda i zaczynał opiekować się młodymi poprzednika. A szczegółowe analizy pokazały, że samce adoptujące miały w sumie tyle samo własnego potomstwa, co samce zabijające. To zaś podważa dotychczasowe przekonanie, że adopcja potomstwa poprzednika niekorzystnie wpływa na sukces reprodukcyjny samca. Niewykluczone, że adopcja potomstwa wpływa na zacieśnienie więzi między owdowiałą samicą a ojczymem jej młodych, dzięki czemu samiec ma wcześniej – zwykle pisklęta były adoptowane przez młodsze samce – i częściej okazję do rozmnażania się. « powrót do artykułu
  19. WASP-43b została odkryta w 2011 roku. Należy ona do „gorących Jowiszów”, gazowych egzoplanet wielkości podobnej do Jowisza, na których panują temperatury znacznie wyższe, niż na jakiejkolwiek planecie Układu Słonecznego. Mimo, że gwiazda, którą okrąża WASP-43b jest mniejsza i chłodniejsza od Słońca, to sama planeta znajduje się w odległości 25-krotnie mniejszej niż odległość między Merkurym a Słońcem. Teraz, dzięki Teleskopowi Webba, astronomom udało się opisać pogodę panującą na planecie. Z powodu swojej ciasnej orbity planeta znajduje się w obrocie synchronicznym w stosunku do gwiazdy. Z powodu oddziaływania sił pływowych WASP-43b jest zwrócona ciągle tą samą stroną w stronę gwiazdy. Na jednej jej połowie panuje więc wieczny dzień, na drugiej – wieczna noc. Strona nocna nigdy nie jest oświetlana przez gwiazdę, jednak silne wschodnie wiatry transportują ciepło ze strony dziennej. WASP-43b jest od lat obserwowana przez teleskopy, w tym Hubble'a i – odesłanego już na emeryturę – Spitzera. Dzięki Hubble'owi dowiedzieliśmy się, że po stronie dziennej jest para wodna. Dane z Hubble'a i Spitzera wskazywały też, że po stronie nocnej mogą być chmury. Potrzebowaliśmy jednak dokładniejszych danych z Webba, żeby stworzyć mapę temperatur, pokrywy chmur, wiatrów oraz bardziej dokładnego składu atmosfery w skali całej planety, wyjaśnia Taylor Bell z Bay Area Environmental Research Institute, główny autor najnowszych badań. Co prawda planety nie można bezpośrednio zaobserwować, gdyż jest zbyt mała, ciemna i znajduje się zbyt blisko gwiazdy, ale dzięki jej bardzo krótkiemu okresowi orbitalnemu, który wynosi zaledwie 19,5 godziny, idealnie nadaje się do badań spektroskopowych. Naukowcy wykorzystali więc pracujący na Webbie MIRI (Mid-Infrared Instrument) do wykonywanych co 10 sekund przez 24 godziny pomiarów światła z planety. To pozwoliło obliczyć temperaturę i z grubsza zrekonstruować mapę jej rozkładu na całej planecie. Z badań wynika, że średnia temperatura po stronie dziennej wynosi 1250 stopni Celsjusza, po stronie nocnej zaś – 600 stopni. Najgorętsze miejsce planety znajduje się nieco na wschód od miejsca, które otrzymuje najwięcej promieniowania z gwiazdy. To przesunięcie spowodowane jest przez silne, naddźwiękowe wiatry, które przemieszczają gorące powietrze na wschód. Badacze wykorzystali trójwymiarowe modele atmosfery, podobne do modeli używanych na Ziemi do badań pogody i klimatu. Na ich podstawie stwierdzili, że nocna strona jest prawdopodobnie pokryta gęstymi chmurami, które częściowo zapobiegają ucieczce ciepła. Z powodu tych chmur strona ta wygląda na ciemniejszą i chłodniejszą, niż gdyby chmur nie było. Webb dostarczył też danych, które pozwoliły stwierdzić, że zarówno po stronie dziennej, jak i nocnej, znajduje się para wodna. Ku swojemu zaskoczeniu, naukowcy stwierdzili brak metanu w atmosferze. O ile jego nieobecność jest zrozumiała po stronie dziennej – jest tam zbyt gorąco, by metan się tworzył, a większość węgla prawdopodobnie występuje w postaci tlenku węgla – to Webb powinien wykryć sygnaturę metanu po chłodniejszej stronie nocnej. Jednak to tam nie ma. Przyczyną, dla której nie wykrywamy metanu na WASP-43b muszą być silne wiatry, osiągające prędkość 8000 km/h. Jeśli wiatry przenoszą gazy pomiędzy stroną dzienną a nocną z wystarczająco duża prędkością, to gazy te przebywają po stronie nocnej zbyt krótko, by zaszły tam reakcje chemiczne pozwalające na powstanie wykrywalnej ilości metanu, dodaje współautorka badań, Joanna Barstow z brytyjskiego Open University. Naukowcy przypuszczają, że z powodu tak szybko wiejących wiatrów atmosfera jest dobrze wymieszana i ma identyczny skład na całej planecie. « powrót do artykułu
  20. Tegoroczna edycja konkursu Fizyczne Ścieżki została rozstrzygnięta. Finał Konkursu odbył się 19 kwietnia br. w kompleksie jądrowym Świerk. Jury Konkursu, składające się z naukowców reprezentujących uczelnie wyższe oraz pracowników instytutów badawczych w Polsce zgodnie uznało, że prace były niezwykle ciekawe i wykonane na bardzo wysokim poziomie. Wśród wyróżnionych prac znalazły się m.in. komora mgłowa przeznaczona do obserwowania promieniowania jonizującego, pojazd „Blackbird”, który może poruszać się szybciej niż wiatr, badania plam na Słońcu, a także rozważania, czy robot może zastąpić fizyka. Laureaci konkursu zostali nagrodzeni stypendium Marszałka Województwa Mazowieckiego, a dwoje a nich otrzymało możliwość odbycia tygodniowego pobytu naukowego w Narodowym Centrum Badań Jądrowych i Instytucie Fizyki PAN. Dodatkowo, laureaci otrzymali znaczne ułatwienia w procesie ubiegania się o studia na kierunkach fizycznych na renomowanych uczelniach, takich jak Uniwersytet Jagielloński, Uniwersytet Warszawski, Uniwersytet w Białymstoku, Politechnika Świętokrzyska oraz Politechnika Warszawska. W uznaniu wysiłku włożonego w przygotowania do Konkursu, wszyscy uczestnicy prezentacji z dnia 19 kwietnia, wraz z ich opiekunami naukowymi, otrzymali książki ufundowane przez Prezydenta Miasta Otwocka, Starostę Otwockiego oraz Narodowe Centrum Badań Jądrowych. Dodatkowo, zostali oni uhonorowani nagrodami rzeczowymi, które zostały zakupione dzięki wsparciu z projektu realizowanego w ramach programu Społeczna Odpowiedzialność Nauki II - "Organizacja XIX i XX edycji ogólnopolskiego konkursu fizycznego Fizyczne Ścieżki". Podczas gali finałowej wręczono także Nagrodę im. Ludwika Dobrzyńskiego. Jest to forma upamiętnienia wspaniałego naukowca i popularyzatora nauki, który przez wiele lat był Przewodniczącym Komitetu Organizacyjnego Konkursu Fizyczne Ścieżki. Wyróżnienie to przyznaje się nauczycielom bądź opiekunom naukowym prac konkursowych, którzy z wyjątkowym zaangażowaniem wspierają rozwój naukowy swoich podopiecznych uczestniczących w Konkursie W tym roku uhonorowano mgr Janinę Kulę. Uczestnicy konkursu mogli także wysłuchać wykładu dr Pawła Gory na temat „Sztuczna inteligencja – rewolucja naszych czasów”. Organizatorzy, Narodowe Centrum Badań Jądrowych i Instytut Fizyki Polskiej Akademii Nauk, już dziś zapraszają wszystkich uczniów zainteresowanych fizyką do udziału w przyszłorocznej, jubileuszowej, dwudziestej edycji Fizycznych Ścieżek. Więcej informacji na stronie fizycznesciezki.pl. Konkurs Fizyczne Ścieżki jest co roku organizowany przez Narodowe Centrum Badań Jądrowych i Instytut Fizyki PAN dla uczniów klas 7–8 szkół podstawowych oraz dla uczniów szkół ponadpodstawowych. Honorowym patronatem wydarzenie objęli Ministrowie Nauki i Edukacji oraz Prezydent Otwocka. Nazwa rywalizacji nawiązuje do trzech ścieżek, którymi podąża współczesna fizyka – rozważań teoretycznych, eksploracji doświadczalnej oraz konstrukcji technicznej. W takich też konkurencjach uczestnicy mogą zgłaszać prace w postaci eseju, pracy naukowej lub pokazu zjawiska fizycznego. Do finału awansowało w tym roku po pięć najlepszych prac z każdej z dziedzin, a ich autorzy mieli okazję zaprezentować je przed jurorami, czyli znamienitymi polskimi fizykami, nauczycielami przedmiotów przyrodniczych i popularyzatorami nauki. Otwarte seminarium jest niezwykłym przeżyciem dla uczniów, ale także inspirującym doświadczeniem dla naukowców. « powrót do artykułu
  21. W 2. połowie XIX wieku francuscy archeolodzy natrafili w jednej z asyryjskich świątyń sprzed 2700 lat na grupę tajemniczych symboli. Z czasem okazało się, że taka sama sekwencja symboli powtarzała się w innych świątyniach Dur-Szarrukīn, stolicy Asyrii w czasach Sargona II. Obecnie jest to niewielka miejscowość Chorsabad w pobliżu Mosulu. Sekwencja symboli – lew, orzeł, byk, figowiec, pług – stała się przyczyną trwających od ponad 100 lat sporów interpretacyjnych. Asyriolog doktor Martin Worthington z Trinity College Dublin zaproponował interesujące rozwiązanie zagadki. Uczony, na łamach Bulletin of the American Schools of Oriental Research argumentuje, że wyrazy odpowiadające symbolom zawierają litery układające się w imię Sargon. Co więcej, w niekórych miejscach występują tylko trzy takie symbole – lew, figowiec, pług – z których litery również tworzą imię władcy. To jednak nie wszystko. Zdaniem Worthingtona, każdy z symboli odpowiada gwiazdozbiorowi. Zarówno tym nam znanym – Lew, Orzeł i Byk – oraz wyróżnianemu w Babilonie Pługowi. Pozostaje kwestia nieistniejącej na terenie Mezopotamii konstelacji związanej z drzewem. Badacz rozwiązuje ten problem, zauważając, że asyryjskie słowo „drzewo” brzmiało niemal identycznie jak słowo „szczęka”, a taka konstelacja, często uważana za należącą do Byka, istniała. Taką niebiańską interpretacją podpiera Worthington kolorystyką symboli. Nie zostały one bowiem przedstawione w naturalnych kolorach. Są złote/żółte na niebieskim tle. Nie mogę udowodnić swojej interpretacji, ale fakt, że sprawdza się ona zarówno w układzie 5 symboli, jak i 3 symboli, oraz że można je odnieść do gwiazdozbiorów, bardzo mnie przekonuje. Prawdopodobieństwo, że to przypadek, jest niewielkie, stwierdza uczony. Sargon II rządził imperium nowoasyryjskim w latach 722–705 p.n.e. Był pierwszym od ponad tysiąca lat władcą, które przybrał takie samo imię jak twórca imperium akadyjskiego, Sargon Wielki. « powrót do artykułu
  22. Badacze ze Szwajcarii, Wielkiej Brytanii i USA udowodnili, że wiewiórki na Wyspach Brytyjskich już w średniowieczu były nosicielami wywołującymi trąd bakterii Mycobacterium leprae oraz odkryli związek pomiędzy patogenem u wiewiórek, a lokalną ludzką populacją. Trąd, który w Europie uważamy za chorobę przeszłości, wciąż atakuje każdego roku około 200 000 osób na świecie. Przed kilku laty informowaliśmy, że wiewiórki z Wysp są nosicielkami bakterii wywołujących trąd u ludzi, a wkrótce potem opisywaliśmy badania, które wskazywały na możliwość zawleczenia tam trądu ze Skandynawii wraz z futrami i mięsem wiewiórek. Teraz mamy kolejne dowody na związek pomiędzy wiewiórkami, a trądem u ludzi. Międzynarodowa grupa naukowa, na której czele stała paleogenetyk profesor Verena Schünemann z Uniwersytetu w Bazylei dowiodła, że wiewiórka pospolita (Sciurus vulgaris) nie tylko była nosicielem M. leprae w średniowiecznej Anglii, ale również patogeny z ciał wiewiórek były blisko spokrewnione z patogenami z ciał ludzi żyjących na tym samym terenie. To pokazuje, że prawdopodobnie dochodziło do transmisji bakterii trądu pomiędzy ludźmi a zwierzętami. Nie wiemy, czy to wiewiórki zaraziły ludzi, czy ludzie wiewiórki, wyjaśnia uczona. Niewątpliwie pomiędzy ludźmi a zwierzętami dochodziło do kontaktów, które ułatwiały dzielenie się patogenami. Wyższe warstwy społeczne ubierały się w ubrania wykonane z futer wiewiórek. Na przykład w XI i XII wieku na potrzeby różnych rodów królewskich wykonywano całe płaszcze z wiewiórczych skór. Ponadto wiewiórki były trzymane jako zwierzęta domowe, zarówno na dworach królewskich, jak i w klasztorach. Podczas badań genetycznych uczeni skupili się na mieście Winchester na południu Anglii. Materiał do badań pobrano z dwóch różnych miejsc na terenie miasta. Ludzie szczątki pochodziły z cmentarza byłego leprozorium miejskiego, a szczątki wiewiórek znaleziono w byłym domu kuśnierza. Tego typu badania nie tylko zwiększają naszą wiedzę o przeszłości, ale mogą przydać się też obecnie. Wciąż bowiem nie wiemy dokładnie, jak trąd się rozprzestrzenia, a zwierzęta, jako potencjalne źródła zakażeń człowieka są słabo przebadane. Chociaż obecnie do zoonoz przywiązuje się coraz większa wagę, historyczne zoonozy są słabo poznane [...], a szczególnie dotyczy to ewolucji i obecności patogenów u zwierzęcych gospodarzy [...]. Bez pełnej sekwencji genetycznej patogenów odzwierzęcych ze stanowisk archeologicznych, nasze zrozumienie długoterminowej dynamiki chorób, interakcji pomiędzy zwierzęciem, człowiekiem, patogenem a środowiskiem nie jest dla nas jasne. A wiedza taka jest bardzo istotna, byśmy mogli dobrze zrozumieć to, co dzieje się obecnie i mogli lepiej identyfikować potencjalne miejsca zarażeń oraz związane z tym ryzyka, podsumowują autorzy badań na łamach artykułu opublikowanego w Current Biology. « powrót do artykułu
  23. Zwierzęta wykorzystują rośliny lecznicze, zarówno zapobiegawczo, jak i by pomóc sobie w różnego typu schorzeniach. Ptaki, pszczoły, jaszczurki, słonie czy szympansy zjadają rośliny, dzięki którym czują się lepiej, zapobiegają chorobom czy zabijają pasożyty. Najczęściej obserwowanym tego typu zachowaniem jest jedzenie trawy przez psy, które chcą sprowokować wymioty i ulżyć sobie w problemach z przewodem pokarmowym. Naukowcy z Niemiec i Indonezji donieśli właśnie o orangutanie, który leczył ranę własnoręcznie wykonaną pastą roślinną. Obecnie nauka dzieli medyczne zachowania zwierząt na pięć kategorii: 1. unikanie jedzenia, 2. unikanie odchodów, zanieczyszczonego pożywienia lub wody, 3. zachowania profilaktyczne, jak rutynowe spożywanie pożywienia o działaniu prozdrowotnym lub zapobiegającym, 4. zachowania lecznice, jak spożywanie niewielkich ilości substancji biologicznie aktywnych lub toksycznych w celu leczenia chorób i ich objawów, 5. terapeutyczne nakładanie roślin na futro i używanie ich w gnieździe w celu pozbycia się czy odstraszenia pasożytów oraz owadów. Uczeni zaobserwowali Rakusa, samca orangutana sumatrzańskiego (Pongo abelii), który miał na twarzy otwartą ranę. Prawdopodobnie powstała ona podczas walki z innym samcem. Trzy dni po zranieniu zwierzę zaczęło zrywać wybrane liście rośliny z gatunku Fibraurea tinctoria z rodziny miesięcznikowatych i je żuło, a uzyskany w ten sposób sok wielokrotnie nakładało na ranę. Na koniec dokładnie pokryło ranę pastą z przeżutych liści. Ranę u Rakusa zauważono 22 czerwca ubiegłego roku, od 25 czerwca orangutan zaczął ją leczyć. Podczas obserwacji w kolejnych dniach naukowcy nie zauważyli, by doszło do infekcji, a do 30 czerwca rana była zasklepiona, a do 19 lipca pozostała po niej jedynie niewielka blizna. W tym czasie Rakus mniej więcej dwukrotnie wydłużył czas odpoczynku w ciągu doby. Najwięcej odpoczywał zaraz po zranieniu oraz przez kilka dni po rozpoczęciu leczenia. Fibraurea tinctoria i spokrewnione w nią rośliny występujące w lasach tropikalnych Azji Południowo-Wschodniej są znane z właściwości przeciwbólowych, przeciwgorączkowych i moczopędnych. W tradycyjnej medycynie wykorzystywane są do leczenia wielu chorób, w tym cukrzycy, malarii czy czerwonki. Analizy chemiczne wykazały, że w roślinach tych znajdują się alkaloidy o działaniu przeciwbakteryjnym, przeciwzapalnym, przeciwgrzybiczym i przeciwutleniającym oraz wiele innych środków wspomagających leczenie ran. Przypadek Rakusa to prawdopodobnie pierwsza tak systematyczna dokładna obserwacja zwierzęcia aktywnie leczącego ranę. Nie mamy wystarczającej wiedzy, by stwierdzić, od jak dawna zwierzęta potrafią leczyć rany. « powrót do artykułu
  24. Zespół meksykańskich badaczy z Consejo Nacional de Humanidades, Ciencias y Tecnologías-El Colegio de la Frontera Sur poinformował, że podmorski lej krasowy Taam Ja', który odkryto z 2021 roku, to najgłębsza tego typu struktura na świecie. Podmorskie studnie znajdowane są na całym świecie, a najsłynniejsza z nich to Great Blue Hole w pobliżu Belize. Lej znajdujący się u południowych wybrzeży Jukatanu odebrał palmę pierwszeństwa Dragon Hole z Morza Południowochińskiego. Gdy Taam Ja' Blue Hole został odkryty, dokonano pomiarów jego głębokości za pomocą sonaru, który wskazał, że ma on około 275 metrów głębokości. Meksykańscy naukowcy rozpoczęli w grudniu bardziej szczegółowe badania studni, wykorzystując w tym celu sondę CTD, narzędzie używane do pomiaru zasolenia, temperatury i głębokości wody. Badania wykazały, że lej ma co najmniej 420 metrów głębokości, jest więc o co najmniej 119 metrów głębszy niż Dragon Hole. Ostatecznych rozmiarów studni wciąż nie znamy. Użyta przez uczonych sonda może bowiem pracować na maksymalnej głębokości 500 metrów, została rozwinięta w całości i nie sięgnęła dna. Jako że dryfowała badacze odjęli 80 metrów od całkowitej długości sondy uznając, że sięgnęła ona 420 metrów. Badania wykazały również, że poszczególne warstwy wody w studni mają różną temperaturę i zasolenie. Na głębokości poniżej 400 metrów zasolenie i temperatura były bardzo podobne do tych samych parametrów z pobliskiego Morza Karaibskiego. Może to wskazywać, że pod dnem istnieje połączenie pomiędzy Morzem a Taam Ja'. « powrót do artykułu
  25. W Bad Cannstatt, najstarszej dzielnicy Stuttgartu, archeolodzy pracujący na terenie rozbudowy miejscowej szkoły, znaleźli niepozorny kamień, który okazał się silnie zwietrzałą rzeźbą przedstawiającą rzymsko-germańskie bóstwo. W latach 100–150 znajdował się tutaj fort rzymskiej kawalerii, po czym do roku ok. 260 rozwijało się intensywnie osadnictwo cywilne. Znaleziona właśnie rzeźba niewątpliwie ma związek z odkryciami dokonanymi ponad 100 lat temu. Rzeźba ma 30 centymetrów wysokości i przedstawia postać o ludzkiej głowie. Jej ramiona zwisają po obu stronach ciała, a dlonie spoczywają na biodrach. Dolna część ciała postaci ma wężowe kształty. To hybryda łącząca germański i rzymski świat bogów, tak zwanych „gigantów”. Podobne znaleziska wskazują, że figura ta stanowiła część gigantycznej kolumny Jowisza. Kolumny takie łączyły wierzenia klasycznej starożytności z prawdopodobnie wierzeniami germańskimi. Jowisz, ciskając pioruny, jedzie na koniu po postaciach wijących się na ziemi. Postaci te są zwykle nagie i mają brody, jak możemy to zobaczyć w grupie z Hausen an der Zaber, mówi doktor Andreas Thiel. Jednocześnie postaci, po których stąpa koń Jowisza, ukształtowane są tak, jakby konia podtrzymywały. Takie grupy figur stanowiły zwieńczenie wysokich filarów, stawianych w miejscach publicznych. Jowisz jest tutaj prawdopodobnie przedstawiony jako bóg pogody i władca sił natury, dodaje Thiel. Mamy też i to dodatkowe szczęście, że nasz gigant pasuje do innych znalezisk w Bad Cannstatt sprzed ponad 100 lat, stwierdza. Te inne znaleziska to między innymi tak zwany Kamień Czterech Bogów, przedstawiający Merkurego, Junonę, Herkulesa i Minerwę. Kamień znaleziono w 1908 roku w studni znajdującej się  na terenie obecnych wykopalisk. Stanowił on podstawę kolumny Jowisza. Odnalezienie jej kolejnego elementu pozwala w coraz lepszym stopniu zrekonstruować zabytek, który w przeszłości górował nad rzymskim miastem. Założony w tym miejscu fort miał chronić ważny bród oraz rozwijający się lokalny handel. Z czasem powstało tu jedno z największych rzymskich miast współczesnej Badenii-Wirtembergii. Przechodził przez nie niemal cały ruch pomiędzy Mogonatiacum (Moguncja) a Augusta Vindelicorum (Augsburg). Bad Cannstatt zapisał się w historii Europy krwawym epizodem, gdy w 746 roku Karloman, majordom Austrazji, zorganizował spotkanie elity germańskiego związku plemiennego Alamanów. Goście zostali aresztowani, oskarżeni o udział w buncie Teudebalda i zabici. Oznaczało to podporządkowanie Frankom niepokornych Alamanów i wzmocniło pozycję Karolingów, którzy pięć lat później odebrali Merowingom resztki pozornej władzy w państwie Franków. « powrót do artykułu
×
×
  • Dodaj nową pozycję...