Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37376
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    240

Zawartość dodana przez KopalniaWiedzy.pl

  1. Supermasywna czarna dziura w centrum Drogi Mlecznej jest bardzo aktywna. Naukowcy z Northwestern University wykorzystali Teleskop Webba do uzyskania najdłuższego i najbardziej szczegółowego obrazu Sagittariusa A*. Dowiedzieli się, że w dysku akrecyjnym wokół dziury bez przerwy mają miejsce rozbłyski. Niektóre z nich to bardzo słabe migotania, trwające sekundy. Inne, potężne i oślepiające, można obserwować codziennie. Są jeszcze inne, niezwykle słabe, które trwają miesiącami. Nowe odkrycia pozwolą lepiej zrozumieć naturę czarnych dziur i ich interakcje z otoczeniem, a także dynamikę i ewolucję naszej galaktyki. Spodziewamy się, że do rozbłysków dochodzi w pobliżu wszystkich supermasywnych czarnych dziur. Jednak nasza czarna dziura jest unikatowa. Tam się zawsze coś gotuje, zawsze widać jakąś aktywność, wydaje się, że ona nigdy nie jest spokojna. Obserwowaliśmy ją wielokrotnie w 2023 i 2024 roku i przy każdej obserwacji odnotowywaliśmy zmiany. Za każdym razem widzieliśmy coś innego, to naprawdę imponujące. Nic nigdy nie było takie samo, mówi profesor fizyki i astronomii Farhad Yusef-Zadeh, który specjalizuje się w badaniu centrum Drogi Mlecznej. Uczony wraz z zespołem wykorzystali urządzeni NIRCam na JWST, które może jednocześnie prowadzić obserwacje w dwóch zakresach podczerwieni. W sumie zebrali 48 godzin obserwacji, które prowadzili co 8–10 godzin w ciągu roku. To pozwoliło im na odnotowywanie zmian w czasie. Sgr A* okazała się bardziej aktywna, niż naukowcy się spodziewali. W dysku akrecyjnym ciągle dochodziło do rozbłysków o różnej jasności i czasie trwania. W ciągu doby miało miejsce 5–6 dużych rozbłysków, pomiędzy którymi naukowcy obserwowali rozbłyski mniejsze. W danych widzimy wciąż zmieniającą się, gotującą jasność. I nagle, bum! Wielki rozbłysk. A później się uspokaja. Nie zauważyliśmy żadnego wzorca. Wydaje się, że to proces przypadkowy. Profil aktywności czarnej dziury był za każdym razem inny i niezwykle ekscytujący, dodaje uczony. Naukowcy nie rozumieją procesów zachodzących w dyskach akrecyjnych czarnych dziur. Profesor Yusef-Zadeh podejrzewa dwa różne mechanizmy. Jeśli dysk przypomina rzekę, to krótkotrwałe słabe rozbłyski są jak niewielki przypadkowe fale, a większe długotrwałe rozbłyski jak fale pływowe powodowane przez bardziej znaczące wydarzenia. NIRCam pracuje w zakresach 2,1 i 4,8 mikrometrów. Jednym z najbardziej niespodziewanych odkryć było spostrzeżenie, że zjawiska widoczne w krótszym zakresie fal zmieniały jasność na krótko przed wydarzeniami z dłuższego zakresu fal. Po raz pierwszy obserwujemy taką różnicę w czasie podczas obserwacji w tych długościach fali. Obserwowaliśmy je jednocześnie w NIRCam i zauważyliśmy, że dłuższe fale spóźniały się w stosunku do krótszych od niewielką ilość czasu, od kilku sekund do około 40 sekund, dziwi się Yusef-Zadeh. To opóźnienie dostarcza dodatkowych informacji. Może ono wskazywać, że cząstki w miarę trwania rozbłysku tracą energię, a utrata ta ma miejsce szybciej w krótszych zakresach fali. Takie zmiany mogą zachodzić, gdy cząstki poruszają się po spirali wokół linii pola magnetycznego. Badacze, chcąc to wyjaśnić, mają nadzieję na przeprowadzenie dłuższych obserwacji. Profesor Yusef-Zadeh już złożył prośbę o zgodę na nieprzerwane wykorzystanie NIRCam przez 24 godziny. Dłuższy czas obserwacji pozwoli na usunięcie z nich zakłóceń i poprawienie rozdzielczości. Gdy obserwuje się tak słabe rozbłyski, trzeba zmagać się z zakłóceniami. Jeśli moglibyśmy prowadzić obserwacje nieprzerwanie przez 24 godziny, moglibyśmy zredukować poziom szumu i zobaczyć szczegóły, których obecnie nie widzimy, wyjaśnia uczony. « powrót do artykułu
  2. Głęboko pod powierzchnią Morza Śródziemnego znajduje się niezwykła infrastruktura, wykrywacz neutrin KM3NeT. Jedna część znajduje się 30 km od południowych wybrzeży Francji, na głębokości ok. 2500 m i jest zoptymalizowana do pracy z neutrinami o energiach liczonych w gigaelektronowoltach (GeV). Część druga, KM3NeT-It, położona 100 km na wschód od południowych wybrzeży Sycylii, zlokalizowana 3500 m pod powierzchnią, wykrywa neutrina z zakresu tera- i petaelektronowoltów (TeV, PeV). Zarejestrowano tam najbardziej energetyczne neutrino. Jego energia sięgała 220 PeV. Międzynarodowy zespół naukowy KM3NeT Collaboration poinformował na łamach Nature, o wynikach analiz przeprowadzonych na danych zebranych przez wykrywacze umieszczone na 21 linach wpuszczonych w głąb morza. Infrastruktura w pobliżu Sycylii pracowała w takich konfiguracji pomiędzy końcem września 2022 a połową września 2023, kiedy to dodano 7 kolejnych lin z detektorami. Uczeni przeanalizowali dane z 287 dni pracy KM3NeT. W tym czasie zarejestrowano 110 milionów interakcji. A najpotężniejsze ze znanych neutrin wykrywacze zarejestrowały 13 lutego 2023 roku. Wspomniane już energia 220 PeV to 16 000 razy więcej niż energia najpotężniejszych kolizji, do jakich dochodzi w Wielkim Zderzaczu Hadronów (LHC). Wszechświat jest pełen neutrin. Jest ich tak dużo, że w każdej sekundzie przez nasze ciała przelatuje ich nawet 100 bilionów. Nie mają one jednak ładunku elektrycznego i prawie nie posiadają masy. Niezwykle rzadko wchodzą w interakcje z materią. Dlatego do ich wykrywania używa się gigantycznych teleskopów, takich jak KM3NeT. To zespół czujników zawieszonych na linach w głębinach Morza Śródziemnego, które rejestrują promieniowanie Czerenkowa. Gdy neutrino wchodzi w interakcję z jądrem atomu w wodzie morskiej, może powstać mion. W wyniku interakcji jądro atomu-neutrino powstały mion zyskuje tak olbrzymią energię kinetyczną, że gdy przemieszcza się przez wodę, dochodzi do emisji światła. To właśnie jest promieniowanie Czerenkowa, które możemy porównać do gromu dźwiękowego powstającego, gdy samolot przekracza prędkość dźwięku. Każda z 230 lin składających się na KM3NeT wyposażona jest w 18 modułów optycznych, z których każdy zawiera 31 fotopowielaczy, wykrywających i wzmacniających słabe rozbłyski światła ze wszystkich kierunków. W tym światło generowane przez miony powstające po uderzeniu neutrin w jądra atomowe. Jak więc łatwo się domyślić, dokładając kolejne liny z kolejnymi fotopowielaczami możemy łatwo rozbudowywać KM3NeT, którego objętość będzie wkrótce liczyła wiele kilometrów sześciennych. KM3NeT wykrywa obecnie neutrina pochodzące z ekstremalnych źródeł i wydarzeń astrofizycznych. Pierwsze zarejestrowanie neutrina o energii w zakresie setek PeV otwiera nowy rozdział w astronomii, stwierdził Paschal Coyle. Łącząc obserwacje z różnych źródeł, poszukujemy związku pomiędzy promieniowaniem kosmicznym, pojawianiem się neutrin oraz supermasywnymi czarnymi dziurami, wyjaśnia Yuri Kovalev z Instytutu Radioastronomii im. Maxa Plancka. Źródłem wysokoenergetycznych neutrin mogą być zresztą nie tylko supermasywne czarne dziury, ale też supernowe. Najpotężniejsze z zarejestrowanych neutrin może pochodzić z któregoś z tych źródeł. Może być też pierwszym zauważonym neutrino kosmogenicznym. Mogą one powstawać, gdy wysokoenergetyczne promieniowanie kosmiczne wchodzi w interakcję z reliktowymi niskoenergetycznymi fotonami z mikrofalowego promieniowania tła. Jednak, jako że to jedyne neutrino o energii rzędu setek PeV, naukowcy nie są w stanie określić jego źródła. KM3Net składa się z dwóch wykrywaczy: ARCA w pobliżu Sycylii i ORCA w pobliżu Tulonu. W skład zespołu ARCA wchodzi 230 lin o długości 700 metrów każda, rozmieszczonych w odległości 100 metrów od siebie. ORCA to 115 lin długości 200 metrów w odległości 20 metrów od siebie. Na każdej linie znajduje się 18 modułów optycznych, wyposażonych w 31 fotopowielaczy. Dane z wykrywaczy trafiają do INFN Laboratori Nazionali del Sud w Portopalo di Capo Passero i Laboratoire Sous-marin Provence Méditerranée w La Seyne-sur-Mer. « powrót do artykułu
  3. Międzynarodowa grupa fizyków pracująca pod kierownictwem Nuclear Physics Group z University of Surrey właśnie obaliła przekonanie, jakoby jądro ołowiu-208 było idealną sferą. Wyniki badań opublikowane na łamach Pysical Review Letters stanową wyzwanie dla założeń dotyczących struktury jądra i mają olbrzymie znaczenie dla naszego rozumienia sposobów powstawania najcięższych pierwiastków. Ołów-208 to pierwiastek wyjątkowo stabilny, gdyż jego jądro jest podwójnie magiczne. I jest najcięższych podwójnie magicznym jądrem, jakie znamy. Z modelu powłokowego możemy wywnioskować, że te jądra, których powłoki są wypełnione, mają większą energię wiązania, są zatem stabilniejsze niż inne jądra. Liczby protonów i neutronów, dla których powłoki są wypełnione, nazywane są liczbami magicznymi. Obecnie uznane liczby magiczne zarówno dla protonów jak i neutronów to 2, 8, 20, 28, 50, 82 i 126. Jeśli mamy do czynienia z jądrem, dla którego i protony i neutrony występują w liczbie magicznej, mówimy o jądrze podwójnie magicznym. 208Pb ma 82 protony i 126 neutronów. Nowa badania pokazały, że 208Pb nie jest idealną sferą, a ma nieco wydłużony kształt, przypominający piłkę do rugby. Udało nam się połączyć cztery różne pomiary wykonane za pomocą najbardziej czułych urządzeń na świecie. Dzięki temu dokonaliśmy tej przełomowej obserwacji. To, co zobaczyliśmy, było dla nas zaskoczeniem. Dowiedliśmy, że ołów-208 nie jest sferą, jak naiwnie przypuszczano. Te wyniki rzucają wyzwanie kolegom zajmującym się teorią jądra atomowego. To ekscytujący temat przyszłych badań, mówi doktor Jack Henderson z University of Surrey. Badacze wykorzystali spektrometr gamma GRETINA z Argonne National Laboratory w USA i zbombardowali atomy ołowiu strumieniem cząstek przyspieszonych do prędkości 10% prędkości światła. W wyniku interakcji jądra atomów ołowiu zostały wzbudzone, co pozwoliło określić ich kształt. Teraz grupa fizyków-teoretyków analizuje modele budowy jądra atomowego, gdyż eksperyment dowiódł, że jego struktura jest bardziej złożona niż sądzono. Eksperyment rzucił nowe światło na zagadnienie, o którym sądziliśmy, ze je dobrze rozumiemy i postawił przed nami nowe wyzwania. Musimy teraz odpowiedzieć na pytanie, dlaczego wyniki eksperymentu są takie, a nie inne. Jedną z możliwości jest stwierdzenie, że wibracje wzbudzonego jądra 208Pb są mniej regularne, niż dotychczas uważaliśmy. Doprecyzowujemy teraz nasze teorie, by sprawdzić, które z hipotez są prawdziwe, wyjaśnia profesor Paul Stevenson. « powrót do artykułu
  4. Wikingowie żyjący na terenie dzisiejszej Szwecji cierpieli na poważne choroby jamy ustnej, szczęk, twarzy, infekcje zatok, uszu, osteoporozę i wiele innych przypadłości. Takie wnioski płyną z badań, podczas których naukowcy z Uniwersytetu w Göteborgu poddali czaszki wikingów badaniom za pomocą tomografu komputerowego. To dalsza część badań, które przeprowadzono przed rokiem, a podczas których przeanalizowano dużą liczbę zębów wikingów z Varnhem. Miejscowość ta znana jest przede wszystkim z nekropolii królów w z dynastii Erykidów (1155–1250), znaleziono tam też tysiące pochówków z wcześniejszych okresów. Uczeni z Göteborgu postanowili rozszerzyć swoje badania na całe czaszki. Datowane są one na X-XII wiek i należą do jednej z najwcześniejszych chrześcijańskich społeczności w Szwecji. Wyniki, opublikowane w British Dental Journal Open wskazują, że aż 12 z 15 zbadanych osób cierpiało na liczne choroby. Kości czaszki wykazują patologiczne zmiany, wskazujące na chroniczne infekcje i inne schorzenia. Chorzy mieli od 20 do 60 lat, więc problemy dotykały całej populacji. Na kościach widać ślady licznych schorzeń. Nie wiemy dokładnie, co to były za choroby, gdyż nie możemy zbadać tkanek miękkich, które się rozłożyły, mówi Carolina Bertilsson. Badania wiele mówią o dobrostanie populacji. Bez dostępu do antybiotyków i odpowiednich zabiegów medycznych ludzie ci cierpieli na długotrwałe stany zapalne, które wiązały się z ciągłym bólem. « powrót do artykułu
  5. Przed dziewięcioma dniami, 12 lutego, tokamak WEST z francuskiego centrum badawczego Cadarache utrzymał plazmę przez 1337 sekund, bijąc w ten sposób niedawny chiński rekord 1066 sekund. Ostatecznym celem tego typu badań jest opracowanie metod długotrwałego utrzymania plazmy oraz stworzenie materiałów zdolnych wytrzymania niezwykle wysokich temperatur i dawek promieniowania. Badacze z CEA (Komisja energii atomowej), do którego należy Cadarache zapowiadają, że w najbliższych miesiącach znacząco zwiększą zarówno czas utrzymania plazmy, jak i jej temperaturę. Podczas rekordowego eksperymentu plazma w tokamaku była grzana falami radiowymi z pojedynczej anteny o mocy 2 MW. Badacze postawili sobie ambitny cel. Chcą zwiększyć moc grzewczą do 10 MW, wciąż utrzymując plazmę przez ponad 1000 sekund. Jeśli im się uda, będzie to odpowiadało uzyskaniu mocy rzędu gigawatów w dużych reaktorach, takich jak ITER. A to z kolei pozwoli sprawdzić żywotność wolframowych elementów wystawionych na oddziaływanie plazmy w tak ekstremalnych warunkach. Francuscy eksperci wchodzą w skład wielu zespołów pracujących nad opanowaniem fuzji jądrowej. Można ich spotkać przy projektach JT-60SA w Japonii, EAST w Chinach, KSTAR w Korei Południowej oraz, oczywiście, ITER. Badania prowadzone we wspomnianych tutaj urządzeniach maja na celu opanowanie fuzji jądrowej i zapewnienie nam w przyszłości niezbędnej energii. Fuzja jądrowa – czyli reakcja termojądrowa – to obiecujące źródło energii. Polega ona na łączeniu się atomów lżejszych pierwiastków w cięższe i uwalnianiu energii. To proces, który zasila gwiazdy.  Taki sposób produkcji energii na bardzo wiele zalet. Nie dochodzi tutaj do uwalniania gazów cieplarnianych. Na Ziemi są olbrzymie zasoby i wody i litu, z których można pozyskać paliwo do fuzji jądrowej, deuter i tryt. Wystarczą one na miliony lat produkcji energii. Takiego luksusu nie mamy ani jeśli chodzi o węgiel czy gaz ziemny, ani o uran do elektrowni atomowych. Tego ostatniego wystarczy jeszcze na od 90 (według World Nuclear Association) do ponad 135 lat (wg. Agencji Energii Atomowej). Fuzja jądrowa jest niezwykle wydajna. Proces łączenia atomów może zapewnić nawet 4 miliony razy więcej energii niż reakcje chemiczne, takie jak spalanie węgla czy gazu i cztery razy więcej energii niż wykorzystywane w elektrowniach atomowych procesy rozpadu atomów. Co ważne, w wyniku fuzji jądrowej nie powstają długotrwałe wysoko radioaktywne odpady. Te, które powstają są na tyle mało radioaktywne, że można by je ponownie wykorzystać lub poddać recyklingowi po nie więcej niż 100 latach. Nie istnieje też ryzyko proliferacji broni jądrowej, gdyż w procesie fuzji nie używa się materiałów rozszczepialnych, a radioaktywny tryt nie nadaje się do produkcji broni. Nie ma też ryzyka wystąpienia podobnych awarii jak w Czernobylu czy Fukushimie. Jednak fuzja jądrowa to bardzo delikatny proces, który musi przebiegać w ściśle określonych warunkach. Każde ich zakłócenie powoduje, że plazma ulega schłodzeniu w ciągu kilku sekund i reakcja się zatrzymuje. « powrót do artykułu
  6. Zwierzęta są nie tylko mieszkańcami Ziemi, ale też jej architektami, kształtującymi krajobraz, w którym żyją. Termity tworzą wysokie kopce i rozległe podziemne korytarze, hipopotamy drążą ścieżki i kanały, a bobry tworzą rozległe mokradła. Dotychczas jednak badania nad zwierzęcymi architektami krajobrazu skupiały się na konkretnych pojedynczych gatunkach. Profesor Gemma Harvey i jej zespół z Queen Mary University w Londynie opublikowali na łamach PNAS pierwszą globalną syntezę wiedzy o takich gatunków. Uczeni zidentyfikowali 603 gatunki, rodzaje i rodziny, które wpływają na procesy toczące się na powierzchni Ziemi. Setki gatunków owadów, ssaków, ryb, ptaków czy płazów w znaczący sposób kształtują swoje środowisko. Najczęściej są to przykłady bardzo nieoczywiste. Okazuje się na przykład, że łososie podczas tarła przemieszczają tyle osadów, ile przemieszcza się podczas powodzi. Zwierzęta słodkowodne odgrywają zresztą olbrzymią rolę w kształtowaniu środowiska. Mimo, że wody słodkie zajmują jedynie 2,4% powierzchni planety, to żyje w nich ponad 30% ze zidentyfikowanych gatunków zwierzęcych architektów. Autorzy badań ostrożnie obliczają, że energia włożona przez te gatunki w kształtowanie terenu wynosi co najmniej 76 000 GJ, czyli tyle, co energia setek tysięcy potężnych powodzi. To daje wyobrażenie, jak wielką rolę odgrywają zwierzęta. A jest to liczba z całą pewnością znacząco zaniżona, gdyż mamy poważne luki w wiedzy, szczególnie tej dotyczące obszarów tropikalnych i subtropikalnych, gdzie bioróżnorodność jest naprawdę duża, a liczba przeprowadzonych badań ograniczona. Dużą rolę w kształtowaniu krajobrazu odgrywają na przykład termity, których kopce w Brazylii pokrywają tysiące kilometrów kwadratowych terenu. Termity czy inni architekci krajobrazu – mrówki – są jednak bardzo rozpowszechnione. Około 1/3 ze wspomnianych w pracy gatunków to gatunki rzadkie, endemiczne lub zagrożone. Jeśli one znikną, dojdzie też do zatrzymania procesów, których są autorami. Będzie to nie tylko strata dla ludzkości, która nigdy nie pozna istoty tych procesów, ale też olbrzymie zagrożenie dla ekosystemów, dla których wiele z tego typu zjawisk odgrywa kluczową rolę. Nasze badania pokazują, że rola zwierząt w kształtowaniu krajobrazu Ziemi jest znacznie większa, niż sądziliśmy. Od bobrów tworzących mokradła, po mrówki budujące kopce z Ziemi, procesy te mają kluczowe znaczenie dla środowiska. Doprowadzając do utraty bioróżnorodności ryzykujemy ich utratę, mówi profesor Harvey. « powrót do artykułu
  7. Rafa Ningaloo jest największą rafą przybrzeżną Australii i jedyną na świecie wielką rafą koralową – ma 260 km długości – położoną blisko wybrzeży. Słynie z obecności największych ryb świata – rekinów wielorybich – które odwiedzają ją od marca do sierpnia. Pomiędzy sierpniem i październikiem zjawiają się tam humbaki. Nic dziwnego, że to wyjątkowe miejsce zostało wpisane na Listę dziedzictwa ludzkości. Teraz Australian Marine Conservation Society alarmuje, że rafa umiera. Napływ gorących wód spowodował masowe blaknięcie koralowców i zabił dziesiątki tysięcy ryb. Nurkowie zauważyli masowe blaknięcie w najcenniejszych miejscach rafy, w tym Turquoise Bay, Coral Bay i Bundegi. Ekolodzy domagają się pilnych działań od rządu i ostrzegają, że w ciągu najbliższych tygodni wielkie obszary koralowców mogą zginąć. Porównują falę gorących wód do pożaru buszu. Już wiele tygodni temu, po tym jak ginęły ryby, wezwaliśmy rząd Australii Zachodniej do działania i nie otrzymaliśmy żadnej odpowiedzi, informują. Śmierć rafy to nie tylko olbrzymia strata dla środowiska naturalnego, ale też zagrożenie dla lokalnych społeczności, których gospodarka w dużej mierze opiera się na rybołówstwie i turystyce. Ekolodzy uważają, że konieczne jest też zbadanie stanu dalej położonych raf koralowych, jak Scott Reef czy Rowley Shoals. Najwyższy czas, byśmy słuchali naukowców, którzy od dekad ostrzegają, że zmiany klimatyczne zagrożą Ningaloo tak, jak zagroziły Wielkiej Rafie Koralowej i wielu innym rafom na całym świecie. Wspaniałe Wybrzeże Australii Zachodniej, które jest rdzeniem naszej tożsamości i gospodarki, nie jest odporne na niszczący wpływ zmian klimatu. Rząd powinien prowadzić działania na rzecz zmniejszenia presji na środowisko morskie, a nie ją zwiększać. Nie powinien w ogóle rozważać rozwoju przemysłu w takich miejscach jak Exmouth Gulf [to niezwykle cenny przyrodniczo teren, miejsce narodzin humbaków, diugoniów i żółwi, gdzie pojawiła się propozycja budowy 30-kilometrowych salin – red.] czy wydobywania ropy i gazu na Scott Reef, stwierdzają przedstawiciele Australian Marine Conservation Society. « powrót do artykułu
  8. Znajdująca się w Jurze Krakowsko-Częstochowskiej Jaskinia Maszycka jest jednym z najważniejszych stanowisk paleolitycznych na terenie Polski. W latach 80. XIX wieku Godfryd Ossowski odkrył w niej pozostałości osadnictwa łowców-zbieraczy sprzed 18 000 lat. W jaskini znaleziono kamienne i kościane narzędzia oraz szczątki zwierząt. Najbardziej jednak interesujące są ludzkie kości. W Jurze mieszkali w tym czasie bowiem przedstawiciele kultury magdaleńskiej. Manipulacja ludzkimi szczątkami była powszechna w górnym paleolicie. W przypadku kultury magdaleńskiej jest ona dobrze udokumentowana. Wiemy, że w czasie bliskim chwili zgonu usuwali tkanki miękkie. Była to część ich praktyk pośmiertnych. Istnieją jednak różne interpretacje odnośnie tego, dlaczego tak robili. Jedna z nich mówi o kanibalizmie. Ludzkie szczątki z Jaskini Maszyckiej są elementem tego sporu wśród naukowców. W latach 90. XX wieku ukazały się badania, których autorzy sugerowali kanibalizm wśród mieszkańców jaskini. Jednak późniejsi badacze odrzucali tę interpretację twierdząc, że chodziło o przygotowanie szczątków do pogrzebu. W Scientific Reports ukazały się wyniki nowych badań, przeprowadzonych na 63 kościach pochodzących od 10 osób, które przechowywane są w Muzeum Archeologicznym w Krakowie. Badania przeprowadził międzynarodowy zespół naukowy z Hiszpanii, Niemiec i Polski. Brali w nich udział profesor Uniwersytetu Rzeszowskiego doktor Marta Połtowicz-Bobak w Instytutu Archeologii UR oraz Dariusz Bobak z Fundacji Rzeszowskiego Ośrodka Archeologicznego. Badacze przypominają, że gdy na ludzkich kościach widoczne są ślady nacięć, łamania czy zębów w grę wchodzą dwa zachowania. Pierwszym jest, oczywiście kanibalizm. Drugim zaś rozczłonkowanie ciała, usunięcie tkanki miękkiej, ale bez kanibalizmu. Problem polega na odróżnieniu obu zachowań na podstawie takich samych śladów. Zauważają, że tafonomia – nauka o pośmiertnym losie szczątków organicznych – ustaliła, że oba zachowania różnią się intensywnością działań na szczątkach. Szczątki, na której widać znacznie większa aktywność i stopień manipulacji, były przygotowywane do konsumpcji. Tam, gdzie dotychczas wskazywano na zachowania kanibalistyczne, ślady manipulacji przekraczają 30%. Natomiast w przypadku manipulacji niezwiązanych z kanibalizmem związane są z obdarciem ze skóry oraz rozczłonkowaniem celem ponownego pochówku i są dokonywane po okresie rozkładu. Położenie i częstotliwość śladów nacięć, a także celowe łamanie kości nie pozostawiają wątpliwości, że celem było wydobycie składników odżywczych ze zmarłych, stwierdza główny autor badań, Francesc Marginedas z Katalońskiego Instytutu Paleoekologii Człowieka i Ewolucji Społecznej. Nie wiadomo, co było przyczyną zachowań kanibalistycznych. Kultura magdaleńska pozostawiła po sobie wspaniałe dzieła sztuki – jak na przykład malowidła z Lascaux – wskazujące, że ówczesne warunki życia były dobre. Dlatego też jest mało prawdopodobne, by do kanibalizmu dochodziło z konieczności. Być może były na tyle dobre, że zwiększyła się liczba ludności i dochodziło do konkurencji o zasoby, a napięcia pomiędzy poszczególnymi grupami mogły prowadzić do kanibalizmu. Autorzy badań zauważają, że wiek osób zmarłych z Jaskini Maszyckiej odpowiada profilowi wiekowemu całej rodziny. Być może więc rodzina tam mieszkająca została zaatakowana, uwięziona i zjedzona. To tym bardziej prawdopodobny scenariusz, że szczątki ludzkie były wymieszane z odpadkami, co wskazuje, że zmarli nie zostali potraktowani z szacunkiem. « powrót do artykułu
  9. Po raz pierwszy przeprowadzono trójwymiarowe obserwacje atmosfery planety pozasłonecznej. Dokonał tego międzynarodowy zespół złożony z naukowców ze Szwajcarii, Francji, Hiszpanii, Chile, Kanady, Szwecji, USA i Portugalii wykorzystując wszystkie cztery duże teleskopy tworzące Very Large Telescope (VLT) Europejskiego Obserwatorium Południowego. Celem badań był ultragorący jowisz WASP-121b, położony 900 lat świetlnych od Ziemi w Gwiazdozbiorze Rufy. Znajduje się tak blisko gwiazdy, że obiega ją w 30 godzin. Niezwykłą atmosferę WASP-121b opisywaliśmy wcześniej w tekście Potężny wiatr i deszcz z kamieni szlachetnych, pierwszy dokładny obraz nocnej strony egzoplanety. Teraz udało się ją zbadać w 3D. Ultragorące jowisze, ekstremalna klasa planet nieobecna w Układzie Słonecznym, dają wyjątkowy wgląd w procesy atmosferyczne. Ekstremalne różnice temperatur pomiędzy stroną dzienną a nocną każą zadać sobie fundamentalne pytanie: jak jest tam rozłożona energia? Aby na nie odpowiedzieć, musimy obserwować trójwymiarową strukturę ich atmosfer, szczególnie zaś ich cyrkulację pionową, która może posłużyć jako test zaawansowanych Globalnych Modeli Cyrkulacji, stwierdzili autorzy badań. Naukowcy zajrzeli w głąb atmosfery planety i zauważyli wiatry wiejące w różnych jej warstwach. Stworzyli dzięki temu trójwymiarową najbardziej szczegółową mapę atmosfery egzoplanety. To, co zobaczyliśmy, zaskoczyło nas. Prąd strumieniowy niesie materiał wokół równika planety, a w niższych warstwach atmosfery ma miejsce inny przepływ, który przemieszcza gazy ze strony gorącej na zimną. Nigdy wcześniej, na żadnej planecie, nie obserwowaliśmy takiego klimatu, mówi Julia V. Seidel z francuskiego Observatoire de la Côte d’Azur. Zaobserwowany prąd strumieniowy rozciąga się na połowę planety, znacząco przyspieszając i gwałtownie skłębiając wysokie partie atmosfery, gdy przekracza gorącą stronę planety. W porównaniu z nim, nawet najpotężniejsze huragany Układu Słonecznego wydają się spokojnymi podmuchami, dodaje Seidel. VLT pozwolił nam na jednoczesne śledzenie trzech różnych warstw atmosfery, cieszy się Leonardo A. dos Santos ze Space Telescope Science Institute w USA. Uczeni śledzili przemieszczanie się w atmosferze żelaza, sodu i wodoru, dzięki czemu mogli obserwować dolną, średnią i górną warstwę. Tego typu obserwacje trudno jest wykonać za pomocą teleskopów w przestrzeni kosmicznej, co pokazuje, jak ważne są naziemne badania egzoplanet, dodaje uczony. Niespodzianką była obecność tytanu, który zauważono pod obserwowanym prądem strumieniowym. Wcześniejsze badania nie wykazały obecności tego pierwiastka. Prawdopodobnie dlatego, że jest ukryty w głębokich warstwach atmosfery. Niezwykłym osiągnięciem jest możliwość tak szczegółowego badania atmosfery planet położonych tak daleko od Ziemi, ich składu chemicznego i wzorców pogodowych. Jednak do zbadania egzoplanet wielkości Ziemi konieczne będą większe teleskopy. Jednym z nich może być Extremely Large Telescope (ELT), budowany przez Europejskie Obserwatorium Południowe na pustyni Atacama. « powrót do artykułu
  10. Space Foundation, niedochodowa organizacja, której celem jest propagowanie przemysłu kosmicznego, opublikowała raport, z którego dowiadujemy się, że w ubiegłym liczba startów w przestrzeń kosmiczną zwiększyła się aż o 16%, a masa ładunków, które trafiły lub miały trafić na orbitę, wzrosła o 40%. To już czwarty rok z rzędu, gdy liczba startów rośnie. W 2024 roku na całym świecie miało miejsce 259 udanych i nieudanych startów rakiet. Średnio jeden start odbywał się co 34 godziny. To o 5 godzin mniej niż średnia z 2023 roku. Zdaniem autorów raportu, w bieżącym roku trend prawdopodobnie zostanie utrzymany. Pomimo zwiększenia liczby startów, całkowita liczba pojazdów umieszczonych w przestrzeni kosmicznej spadła o 3% i wyniosła 2802. Jednocześnie całkowita masa wyniesiona na orbitę zwiększyła się o 40%, do 1,9 milionów kilogramów, gdyż wzrosła masa przeciętnego satelity. Wzrost liczby startów i masy wyniesionej na orbitę to głównie zasługa firmy SpaceX. Jej rakiety startowały 152 razy, umieszczając na orbicie niemal 2000 Starlinków, miały też miejsce 4 testy startu rakiety Starship. Znacząco, bo aż o 86%, zwiększyła się liczba wojskowych pojazdów na orbicie. Sama SpaceX umieściła na niej ponad 100 satelitów Starshield należących do Narodowego Biura Rozpoznania (National Reconnaissance Office). W ubiegłym roku działalność w przestrzeni pozaziemskiej rozpoczęły nowe kraje. Senegal i Chorwacja umieściły na orbicie swoje pierwsze satelity. Tym samym liczba państw z aktywnymi satelitami zwiększyła się do 92. Jednocześnie znacząco, po problemach w pierwszej połowie roku, wzrósł indeks giełdowy firm działających na rynku kosmicznym. W związku z rozwojem przemysłu kosmicznego zarządzane przez NOAA (Narodowa Administracja Oceaniczna i Atmosferyczna) Office of Space Commerce rozpoczęło pracę nad systemem TraCSS (Traffic Coordination System for Space). Będzie on dostarczał cywilnym i prywatnym firmom niezbędnych informacji potrzebnych do bezpiecznego operowania poza Ziemią i unikania kolizji. Platforma posłuży do wymiany informacji, w przyszłym roku ma rozpocząć działanie system unikania kolizji podczas startów, planowana jest też budowa skoordynowanego systemu zarządzania dezorbitacją. Autorzy raportu zauważają, że wraz z rozwojem przemysłu kosmicznego rozwija się też – najczęściej we współpracy z przemysłem – szkolnictwo wyższe pracujące na jego potrzeby. Coraz większe znaczenie zyskuje też sztuczna inteligencja, jednak w tym przypadku wciąż nierozwiązane pozostają kwestie jej regulowania zarówno pod względem etycznym, jak i cyberbezpieczeństwa. « powrót do artykułu
  11. Pochodzenie języka wciąż stanowi tajemnicę. Nie wiemy, kiedy nasi przodkowie zaczęli mówić, czy jesteśmy jedynym gatunkiem na Ziemi zdolnym do złożonej komunikacji głosowej. Nie wiemy też, czy jesteśmy jedynym gatunkiem hominina, który posługiwał się zaawansowaną mową. Wiemy za to, że nasi najbliżsi kuzyni, neandertalczycy, posiadali struktury anatomiczne konieczne do produkcji mowy oraz wariant genu łączony ze zdolnością mówienia. Jednak dotychczasowe badania sugerują, że ich zdolności językowe były bardzo ograniczone w porównaniu z naszymi. Co więc spowodowało, że potrafimy posługiwać się niezwykle złożoną mową? Niewykluczone, że tę zdolność zawdzięczamy... wariantowi pewnego białka. W Nature Communications ukazał się interesujący artykuł autorstwa naukowców z The Rockefeller University, w którym opisują oni swoje badania nad ludzkim wariantem proteiny NOVA1. To specyficzne dla neuronów białko zaangażowane w dojrzewanie i metabolizm RNA. Jest ono niezbędne do prawidłowego rozwoju. U człowieka współczesnego występuje właściwa tylko dla naszego gatunku zmiana. Na 197. aminokwasie NOVA1 u Homo sapiens występuje walina tam, gdzie u denisowian i neandertalczyków znajduje się izoleucyna. Uczeni z Rockefellera postanowili zbadać wpływ tej zmiany na fizjologię. Stworzyli więc myszy posiadające specyficzny dla ludzi wariant NOVA1 i przeanalizowali zmiany molekularne i behawioralne, jakie to za sobą pociągnęło. Stwierdzili, że ten specyficzny dla nas wariant spowodował pojawienie się u myszy zmian w regionach mózgu odpowiedzialnych za wokalizację. Te zmiany na poziomie molekularnym miały swoje konsekwencje w zachowaniu zwierząt. Wokalizacje zarówno młodych, jak i dorosłych myszy były inne niż naturalne. Nasze odkrycie sugeruje, że ten specyficzny dla ludzi wariant NOVA1 może być częścią procesów ewolucyjnych, jakie zaszły u naszego przodka, i możliwe jest że procesy te brały udział w rozwoju języka mówionego, stwierdzają autorzy badań. « powrót do artykułu
  12. Reintrodukcja wytępionego przez ludzi wilka do szkockiego regionu Highlands – jednego z najsłabiej zaludnionych obszarów Europy – pomogłaby w rozprzestrzenieniu się miejscowych lasów, które mogłyby wychwytywać z atmosfery dodatkowy milion ton dwutlenku węgla rocznie. Naukowcy z Wielkiej Brytanii i Norwegii przeprowadzili analizy, których celem było zbadanie, jaki wpływ na lasy Highlands miałaby reintrodukcja wilków. Duzi drapieżnicy odgrywają niezwykle ważną rolę w ekosystemie, kontrolując populację roślinożerców i modyfikując ich zachowanie. Uczeni modelowali obecność wilków i zauważyli, że wystarczyłoby zaledwie 167±23 tych zwierząt – a trzeba wiedzieć, że Highlands ma powierzchnię ponad 25 600 km2 – by zmniejszyć populację jelenia szlachetnego do poniżej 4 osobników na kilometr kwadratowy. To poziom, poniżej którego zaczęłyby się rozrastać szkockie lasy. Obecnie ich ekspansję uniemożliwiają jelenie, wyjadając młode drzewka. Wilki zostały wytępione w Szkocji około 250 lat temu. To zaś spowodowało gigantyczny rozrost populacji jeleni, które wpływają na ekosystem, skład i dynamikę roślinności, możliwość przeżycia i rozwoju drzew czy obieg składników odżywczych. Duża liczba jeleni, szacowana w Szkocji na około 400 000, znakomicie utrudnia naturalną regenerację szkockich lasów. Tym bardziej, że w niektórych regionach Szkocji powszechnie wypasa się owce, które dodatkowo uniemożliwiają regenerację roślinności. Z tego powodu obecnie lasy pokrywają jedynie 4% powierzchni Szkocji, a do ich regeneracji dochodzi głównie tam, gdzie zbudowano płoty, uniemożliwiając jeleniom dostęp. Tam, gdzie prowadzono intensywne działania na rzecz regeneracji lasów i udało się zmniejszyć populację jeleni do mniej niż 6 na km2 obserwowano zwiększanie się powierzchni leśnych. W regionie Cairngors na 60 000 hektarów udało się dzięki temu zwiększać powierzchnię lasów o 164 hektary rocznie przez kolejnych 30 lat. Eksperci oceniają, że rodzime lasy mogłyby zająć dodatkowo 39 000 km2 w Highlands. Mamy coraz większa świadomość, że bioróżnorodność i problemy klimatyczne nie mogą być rozwiązane w odosobnieniu. Musimy przyjrzeć się potencjalnej roli naturalnych procesów, takich jak reintrodukcja wytępionych gatunków, by zregenerować zdegradowany ekosystem, dzięki czemu ludzie odniosą liczne korzyści, mówi profesor Dominick Spracklen. Niejednokrotnie pisaliśmy o niezwykle ważnej funkcji, jaką spełniają wilki w ekosystemie. Okazuje się, że zwierzęta te wpływają na powstawanie i kształt mokradeł czy pomagają zagrożonym rysiom. Nie zawsze jednak zadziała prosty mechanizm reintrodukcji, gdyż ekosystem jest bardzo złożony. Na przykład w Yellowstone wytępienie wilka doprowadziło do zniknięcia bobrów i kolejnych niekorzystnych zmian w ekosystemie. Podobne niekorzystne skutki ma w usunięcie z ekosystemu każdego głównego drapieżnika. Autorzy omawianych tu badań zauważają, że reintrodukcja wilka przyniesie wiele korzyści, daleko wykraczające poza samo zwiększenie powierzchni lasów. Zwiększy się ruch turystyczny, spadnie liczba wypadków z udziałem jeleni, zmniejszy liczba przypadków boreliozy wiązanej z nadmierną populacją jeleni oraz spadną koszty działań związanych z obecnie prowadzonymi próbami kontroli populacji jeleni. « powrót do artykułu
  13. Z pewnością znacie to uczucie, gdy po obfitym posiłku czujecie się najedzeni i nachodzi Was ochota na coś słodkiego. Naukowcy z Instytutu Badań nad Metabolizmem im. Maxa Plancka w Kolonii odkryli, że tajemnica tego zjawiska tkwi w mózgu. Okazało się bowiem, że te same komórki nerwowe, które informują nas, że już jesteśmy najedzeni, są też odpowiedzialne za nasze późniejsze pożądanie słodkości. I u myszy, i u ludzi chęć zjedzenia czegoś słodkiego jest aktywowane przez uwolnienie peptydu opioidowego o nazwie beta-endorfina. Zablokowanie jej szlaku sygnałowego może być przydatne w leczeniu otyłości. Uczeni z Kolonii, chcąc sprawdzić, dlaczego po obfitym posiłku chcemy zjeść coś słodkiego, badali reakcję myszy na cukier. Odkryli, że najedzone myszy wciąż jadły desery. Badania ich mózgów wykazały, że odpowiedzialne za to są niektóre neurony POMC, które aktywowały się natychmiast, gdy myszy zyskiwały dostęp do cukru. Gdy myszy były najedzone i jadły cukier neurony POMC uwalniały molekuły sygnałowe, które nie tylko informowały o sytości, ale stymulowały też beta-endorfinę. Ta z kolei działała na komórki nerwowe z receptorami opioidowymi, uruchamiając poczucie nagrody, co powodowało, że myszy jadły cukier nawet, gdy były już przejedzone. Szlak opioidowy był aktywowany tylko wówczas, gdy zwierzęta zjadały dodatkowy cukier, ale nie wtedy, gdy zjadały zwykłe pożywienie lub tłuszcz. Gdy naukowcy zablokowali ten szlak, myszy nie chciały jeść dodatkowego cukru. Zjawisko takie miało miejsce tylko  u najedzonych myszy. Gdy zwierzęta były głodne zablokowanie beta-endorfiny nie powodowało, że nie chciały jeść. Co ciekawe, mechanizm ten uruchamiał się gdy tylko myszy wyczuły cukier, nawet gdy jeszcze nie zaczynały go jeść. Co więcej, opiat był uwalniany także w mózgu myszy, które nigdy wcześniej nie miały z cukrem do czynienia. A gdy tylko pierwsza porcja cukru trafiła do pyska myszy, beta-endorfina trafiała do neuronów POMC, wzmacniając zapotrzebowanie na cukier. Autorzy badań postanowili sprawdzić, czy taki sam mechanizm działa u ludzi. Badanym podawali roztwór cukru przez rurkę, jednocześnie skanując ich mózgi. W ten sposób stwierdzili, że doszło do zwiększonej aktywności w tym samym regionie mózgu, co u myszy. To region, który zawiera wiele receptorów opioidowych położonych blisko neuronów informujących o najedzeniu się. Z ewolucyjnego punktu widzenia, ma to sens. Cukier rzadko występuje w naturze, ale błyskawicznie dostarcza energię. Mózg jest więc zaprogramowany tak, by korzystać z cukru, gdy tylko to możliwe, mówi kierujący badaniami Henning Fenselau. « powrót do artykułu
  14. Niskie średnie temperatury na Ziemi, które umożliwiły uformowanie się pokryw lodowych na biegunach, są czymś rzadkim w historii naszej planety. Nowe badania, przeprowadzone przez zespół pod kierunkiem naukowców z University of Leeds, dowodzą, że aby takie warunki klimatyczne się pojawiły, musi dojść do zbiegu wielu złożonych procesów. Uczeni badali, dlaczego Ziemia przez zdecydowaną większość swojej historii była znacznie cieplejsza niż obecnie i nie istniały na niej pokrywy lodowe na biegunach. Dotychczas proponowano wiele hipotez, które miały wyjaśnić pojawianie się glacjałów na Ziemi. Mówiono o zmniejszonym wulkanizmie, zwiększonym pochłanianiu atmosferycznego węgla przez roślinność czy też o reakcji dwutlenku węgla ze skałami. Ciepłe warunki klimatyczne farenozoiku zostały przerwane przez dwa długotrwałe okresy ochłodzenia, w tym obecny, trwający od około 34 milionów lat. Te chłodniejsze okresy zbiegają się z niższą zawartością CO2 w atmosferze, jednak nie jest jasne, dlaczego poziom CO2 spada, piszą naukowcy na łamach Science Advances. Na potrzeby badań stworzyli nowy długoterminowy „Earth Evolution Model”. Jego powstanie było możliwe dzięki ostatnim postępom w technikach obliczeniowych. Model pokazał, że wspomniane ochłodzenia spowodowane były nie pojedynczym procesem, a ich zbiegiem. To wyjaśnia, dlaczego okresy chłodne są znacznie rzadsze od okresów ciepłych. Wiemy teraz, że powodem, dla którego żyjemy na Ziemi z pokrywami lodowymi na biegunach, a nie na planecie wolnej od lodu, jest przypadkowy zbieg bardzo małej aktywności wulkanicznej i bardzo rozproszonych kontynentów z wysokimi górami, które powodują duże opady i w ten sposób zwiększają usuwanie węgla z atmosfery. Bardzo ważnym wnioskiem z naszych badań jest stwierdzenie, że naturalny mechanizm klimatyczny Ziemi wydaje się faworyzować istnienie gorącego świata z wysokim stężeniem CO2 i brakiem pokryw lodowych, a nie obecny świat z niskim stężeniem CO2, pokryty częściowo lodem, mówi główny autor badań, Andrew S. Meredith. To prawdopodobnie preferencja systemu klimatycznego Ziemi ku gorącemu klimatowi uchroniła naszą planetę przed katastrofalnym całkowitym zamienieniem naszej planety w lodową pustynię. Dzięki niej życie mogło przetrwać. Drugi z głównych autorów badań, profesor Benjamin Mills zauważa, że z badań płyną bardzo ważne wnioski. "Nie powinniśmy spodziewać się, że Ziemia zawsze powróci do chłodniejszego okresu, jaki charakteryzował epokę przedprzemysłową. Obecna Ziemia, z jej pokrywami lodowymi jest czymś nietypowym w historii planety. Jednak ludzkość zależy od tego stanu. Powinniśmy zrobić wszystko, by go zachować i powinniśmy być ostrożni, czyniąc założenia, że zatrzymując emisję powrócimy do stanu sprzed globalnego ocieplenia. W swojej długiej historii klimat Ziemi był przeważnie gorący. Jednak w czasie historii człowieka był chłodny. « powrót do artykułu
  15. Wszechświat jest pełen neutrin. Jest ich tak dużo, że w każdej sekundzie przez nasze ciała przelatuje nawet 100 bilionów tych cząstek subatomowych. Mimo tej obfitości neutrino jest najsłabiej poznaną cząstką elementarną. Bardzo słabo oddziałuje ono z materią, dlatego też trudno jest je zarejestrować i badać. Tymczasem fizycy od kilkunastu lat coraz bardziej interesują się neutrinami, gdyż mogą one wyjaśnić wiele tajemnic, na przykład, dlaczego we wszechświecie jest więcej materii niż antymaterii. Jedną z pierwszych cech neutrin, jakie powinniśmy poznać, są ich rozmiary. Znajomość tego parametru pozwoli na zaprojektowanie bardziej precyzyjnych detektorów, dzięki którym można będzie lepiej zbadać neutrina. Międzynarodowy zespół naukowy opisał na łamach Nature opracowaną przez siebie metodę pomiaru rozmiarów neutrino elektronowego oraz uzyskane wyniki. Uczeni przeprowadzili eksperyment, podczas którego obserwowali radioaktywny rozpad berylu (7Be). Rozpada się on do litu (7Li). Podczas tego procesu ma miejsce wychwyt elektronu, kiedy to elektron atomu jest przechwytywany przez proton z jego jądra. Powstaje w ten sposób neutron pozostający w jądrze nowego pierwiastka – litu-7 – oraz emitowane jest neutrino elektronowe. Uwalniana jest energia, która odrzuca nowo powstały atom litu-7 w jednym kierunku, a neutrino w przeciwnym. Badacze obserwowali ten proces w akceleratorze, w którym umieścili bardzo czułe detektory neutrin. Dzięki temu mogli zbadać pęd atomu litu i na tej podstawie obliczyć rozmiary neutrino. Pomiar oddaje kwantową naturę neutrino. Co oznacza, że „rozmiar” należy tutaj rozumieć jako pewien stopień niepewności co do przestrzeni zajmowanej przez neutrino. Z obliczeń wynika, że dolną granicą rozmiarów pakietu falowego neutrino elektronowego jest 6,2 pikometrów. To oznacza, że pakiet falowy neutrin jest znacznie większy niż pakiet falowy typowego jądra atomowego, który liczy się w femtometrach. Dla jądra wodoru jest to ok. 1,2 fm, dla jądra węgla, ok 3,5 fm. « powrót do artykułu
  16. Jedną z metod służących poznaniu naszej historii jest badanie zanieczyszczeń powodowanych przez człowieka. W przeszłości informowaliśmy, że historia starożytnego Rzymu została zapisana w zanieczyszczeniach na Grenlandii, a później informowaliśmy, że Rzymianie zanieczyszczali atmosferę bardziej, niż sądziliśmy. Teraz zaś geolodzy z Uniwersytetu w Heidelbergu znaleźli najstarsze dowody na zanieczyszczenie przez człowieka środowiska ołowiem. Rdzenie z osadów z dna morskiego oraz okolic wybrzeży Morza Egejskiego dostarczyły dowodów, że ludzie zanieczyścili okolicę ołowiem już 5200 lat temu. Odkrycie to, w połączeniu z analizą pyłków roślin zawartych w osadach, daje lepszy wgląd w zmiany społeczno-ekonomiczne regionu Morza Egejskiego. Widać w nich też wydarzenia polityczne, jak na przykład podbój Grecji przez Rzym. W badanym regionie powstały jedne z najstarszych europejskich centrów kulturowych. Wpływ społeczności rolniczo-pasterskich na środowisko widać w wylesianiu oraz zmianie składu pyłków roślin, znajdujących się w osadach. Widzimy, że około 5200 lat temu na południu Europy dochodzi do intensyfikacji takich zmian. Wciąż jednak społeczności te miały jedynie lokalny wpływ na środowisko. Na Półwyspie Bałkańskim metale wytapiano około 7000 lat temu, natomiast technologię kupelacji rud ołowiu w celu pozyskania srebra stosowano w regionie Morza Egejskiego i Bliskiego Wschodu być może już około 6000 lat temu. Technologie te pozostawiły po sobie trwały ślad w środowisku. Dotychczas najstarsze dowody na antropogeniczne zanieczyszczenie ołowiem pochodziły sprzed około 4000 lat. Uczeni z Heidelbergu znaleźli w rdzeniu pobranym z torfowiska w pobliżu Filippii (Tenaghi Philippon) ślady antropogenicznego zanieczyszczenia ołowiem sprzed 5200 lat. Wciąż jednak były to zmiany regionalne. Pierwsze ponadregionalne zanieczyszczenie ołowiem miało miejsce na przełomie III i II wieku naszej ery. Ślady rzymskich zanieczyszczeń znaleziono w lodach Grenlandii. Pochodzą one mniej więcej z czasu podboju Grecji przez Rzym. Kolejny skok zanieczyszczeń miał miejsce około 200 lat później, gdy Imperium Romanum przeżywało okres największego rozkwitu. Wysoki poziom antropogenicznych zanieczyszczeń ołowiem utrzymywał się przez około 1000 lat. Poza wspomnianym skokiem w I wieku, do zwiększenia zanieczyszczeń doszło też około 1700 i 1200 lat temu. Widoczne są też wyraźne spadki, które przypadają na okres władzy dynastii Antoninów (165–180) oraz cesarza bizantyńskiego Justyniana (541–549). W obu tych okresach doszło do dużych epidemii. « powrót do artykułu
  17. Dystrofia mięśniowa Duchenne'a (DMD) to choroba genetyczna o niezwykle poważnych konsekwencjach, jak nieodwracalny zanik mięśni. Powodowana jest mutacją w najdłuższym ludzkim genie, kodującym dystrofinę. W wyniku mutacji tworzone są jedynie fragmenty mRNA zamiast całych mRNA. Uczeni z Instytutu Badań nad Sercem i Płucami im. Maxa Plancka wykazali, te fragmenty mRNA – za pośrednictwem procesu zwanego adaptacją transkrypcyjną  – mogą zostać wykorzystane do wytwarzania dużych ilości utrofiny, kompensując brak dystrofiny. Utrofina jest białkiem o podobnej strukturze co dystrofina, jest syntetyzowana w wieku płodowym, a po porodzie zastępowana przez dystrofinę. Później wykrywana jest tylko w regenerujących się mięśniach. Od dłuższego czasu podejrzewano, że może będzie ją wykorzystać w leczeniu dystrofii mięśniowej. Dystrofia mięśniowa Duchenne'a występuje niemal wyłącznie u chłopców. Pojawia się w około 1 na 5000 urodzeń. Jest chorobą postępującą, jej pierwsze objawy występują w wieku 2-8 lat. Początkowo zanikają mięśnie szkieletowe, z czasem też mięsień sercowy. Chorzy mają coraz większe problemy z poruszaniem się. W wieku około 12 lat większość nie jest w stanie samodzielnie chodzić. Obecnie, dzięki postępom medycyny, średnia długość życia chorych wynosi około 30 lat. Dotychczas leczenie dystrofii Duchenne'a polegało na utrzymaniu sprawności mięśni jak najdłużej to możliwe. Pojawiają się też pierwsze terapie genowe, których celem jest zwiększenie produkcji dystrofiny w komórkach mięśni. Teraz zespół Didiera Stainiera z Instytutu im. Maxa Plancka dokonał ważnego odkrycia. Naukowcy skupili się nie tylko na dystrofinie, ale też na utrofinie. Wiadomo, że zwiększone wytwarzanie utrofiny częściowo rekompensuje brak dystrofiny. Jako pierwsi wykazaliśmy, że ludzkie komórki mięśniowe są w stanie, za pomocą procesu zwanego adaptacją transkrypcyjną, zwiększyć produkcję utrofiny, mówi główna autorka badań, Lara Falcucci. Dotychczas adaptację transkrypcyjną obserwowano jedynie u nicienia C. elegans, danio pręgowanego i myszy. Żeby zrozumieć ten mechanizm, trzeba wiedzieć, że w dystrofii mięśniowej Duchenne'a różne mutacje w genie kodującym dystrofinę uniemożliwiają powstanie funkcjonalnego produktu, czyli białka. Ponadto niektóre mutacje powodują, że mRNA się rozpada na kawałki. Okazało się, ze te kawałki mogą odgrywać nowe role w regulacji innych genów, wyjaśnia Christopher Dooley. Naukowcy z Maxa Plancka wykazali na hodowlach komórek pobranych od pacjentów z DMD, że wspomniane fragmenty mRNA zwiększają produkcję utrofiny w komórkach. Dzieje się tak dzięki mechanizmowy adaptacji transkrypcyjnej. Regulując mechanizm rozpadu mRNA dystrofiny można kontrolować produkcję utrofiny w komórkach. To punkt wyjścia do opracowania terapii, dodaje Falcucci. « powrót do artykułu
  18. Jednym z aspektów ludzkiej kultury jest rozwinięta sztuka kulinarna. Wkładamy wiele wysiłku w przygotowanie i doprawienie żywności. Teraz naukowcy z Uniwersytetu Medycyny Weterynaryjnej w Wiedniu zaobserwowali, że kakadu białookie manipulują pożywieniem, by nadać mu dodatkowy smak i teksturę. Zaczęło się od trzech ptaków – Pipina, Mukiego i Kiwi – które mieszkają w dużej wolierze. Uczeni zauważyli, że ptaki, przed zjedzeniem sucharów, maczały je w wodzie. Zauważyliśmy to zachowanie i zaczęliśmy się zastanawiać, dlaczego kakadu tak się zachowują. Innowacje dotyczące pożywienia są uważane za przejaw inteligencji, więc chcieliśmy sprawdzić, czy odnosi się to do naszych ptaków, mówi doktorant Jeroen Zewald, który kierował badaniami. Naukowcy wysunęli kilka hipotez. Uznali, że ptaki mogą albo myć pożywienie, albo nasączać je wodą, albo zmieniać jego smak, albo używać go jako gąbki, by dostarczać wodę pisklętom. Dzięki szczegółowym obserwacjom przekonali się, że kakadu wsadzają suchary do wody na 20 sekund, czasem obracając je przed zjedzeniem. Postępowały tak tylko z suchym pożywieniem. Woda była czysta, nie nadawała smaku, a ptaki nie miały wówczas młodych. Naukowcy doszli więc do wniosku, że ptakom chodzi o zmianę tekstury pożywienia. Podobnie postępują ludzie, którzy na przykład zanurzają biszkopty w porannej herbacie czy cantucci w winie. To jednak nie koniec niespodzianek. Ku naszemu wielkiemu zdziwieniu zauważyliśmy, że kakadu zanurzają makaron w sojowym jogurcie jagodowym. Prawdopodobnie po to, by go doprawić. Całkiem jak ludzie zanurzający frytki w keczupie, stwierdza Zewald. Naukowcy dostarczyli więc ptakom sojowy jogurt pozbawiony smaku. I okazało się, że ptaki bardzo rzadko maczają w nim makaron. Wszystko wskazuje więc na to, że chodzi o dodatkowy smak. Naukowcy podkreślają, że ich kakadu mają dostęp do jogurtu sojowego, który mogą spożywać. Jogurt z mleka jest dla ptaków szkodliwy. Dotychczas przyprawianie żywności zauważono jedynie w latach 60. XX wieku u makaków japońskich, które zanurzały ziemniaki w słonej wodzie. Nie weryfikowano jednak eksperymentalnie tego zachowania. Nie wszystkie ptaki w grupie zanurzały makaron w jogurcie. To prawdopodobnie oznacza, że jest to nowy wynalazek, a nie część ich naturalnego zachowania, mówi uczony. Co interesujące, zauważono też różnice pomiędzy maczaniem suchego pokarmu w wodzie, a zanurzaniem makaronu w jogurcie. O ile suchy pokarm był ostrożnie wkładany do wody, to makaron był bardzo energicznie przeciągany i obtaczany w jogurcie. Co więcej ptaki zjadały fragment makaronu unurzany w jogurcie i ponownie zanurzały ten fragment, na którym jogurtu nie było. O tym, że to zachowanie nowe, może świadczyć fakt, że nie zaobserwowano go dotychczas ich środowisku naturalnym, w Indonezji. Te kakadu znane są z innowacyjnego podejścia do używania narzędzi w naturze. Potrafią na przykład zaostrzyć patyk, by dostać się do owoców o twardej skorupce. Używanie narzędzi i przyprawianie pożywienia pokazuje, jak są elastyczne, inteligentne i ciekawskie, dodaje profesor Alice Auersperg. Mam nadzieję, że ludzie zaczną brać pod uwagę ich inteligencję, zamiast trzymać je w domu i traktować jak domowe zwierzęta. To energiczne ptaki, które potrzebują wielu godzin aktywności fizycznej i bogatego otoczenia, dodaje uczona. Kakadu białookie znacząco zwiększają naszą wiedzę o inteligencji zwierząt. Uczeni z Austrii zwykle stawiają przed nimi problem i obserwują, jak ptaki dochodzą do jego rozwiązania. Tym razem kakadu rozwiązały problem, którego ludzie przed nimi nie stawiali. Najwyraźniej pożywienie nie bardzo im smakowało i postanowiły temu zaradzić. To pokazuje, że ludzie nie są jedynymi zwierzętami, które mają własne preferencje kulinarne, stwierdza Zewald. « powrót do artykułu
  19. Mikro- i nanoplastik zawarty w glebie i ziemi może znacząco zwiększać ilość toksyn absorbowanych przez rośliny, ludzi i zwierzęta. Naukowcy z Rutgers University informują na łamach NanoImpact, że w sałacie narażonej na działanie nanoplastiku oraz innych obecnych w środowisku zanieczyszczeń – takich jak np. arsen – ilość toksycznych substancji była znacznie większa, niż w sałacie, która miała do czynienia tylko z tradycyjnymi zanieczyszczeniami. Podobne zjawisko zaobserwowano w ludzkich tkankach. Wprowadziliśmy do środowiska już około 7 miliardów ton plastiku, który ciągle się rozpada. Zanieczyszcza on wszystko, co nas otacza – wodę, którą pijemy, pożywienie i powietrze, którym oddychamy, mówi Philip Demokritou, dyrektor Centrum Nanonauki i Zaawansowanych Materiałów na Rutgers University, który był jednym z głównych autorów obu badań. Uczeni wykorzystali model komórkowy ludzkiego jelita cienkiego połączony z aparatem symulującym układ trawienny. Badania wykazały, że obecność mikroplastiku aż sześciokrotnie zwiększyła wchłanianie samego tylko arsenu. Takie samo zjawisko zaobserwowano w przypadku boskalidu, szeroko stosowanego pestycydu, który również w większej ilości akumulował się w ludzkich tkankach w obecności nanoplastiku. Co gorsze, zależność była dwustronna. Nie tylko plastik zwiększa wchłanianie zanieczyszczeń, ale i zanieczyszczenia zwiększają, i to niemal dwukrotnie, wchłanianie plastiku. Wiemy, że materiały w skali nano mogą przekraczać bariery biologiczne. Im są mniejsze, tym łatwiej przedostają się przez warstwy, które chronią nasz organizm, mówi Demokritou. Podczas badań nad sałatą, naukowcy użyli polistyrenu o dwóch rozmiarach, 20 i 1000 nanometrów, oraz arsenu i boskalidu. Odkryli, że mniejsze cząstki miały większy wpływ. Doprowadziły one do 3-krotnego zwiększenia arsenu przez sałatę. Zjawisko takie zaobserwowano zarówno w uprawach hydroponicznych, jak i w przypadku sałaty uprawianej w ziemi. Dzięki zaawansowanym technikom obrazowania naukowcy wykazali, że im mniejsze cząstki, tym łatwiej przedostają się one z korzeni do pozostałych części rośliny. Ludzie wprowadzili do środowiska olbrzymie ilości plastiku. Nie ulega on rozkładowi, tylko rozpada się na coraz mniejsze fragmenty, które z wodą, pożywieniem i powietrzem trafiają do naszych organizmów. Niedawno opisywaliśmy badania, których autorzy zauważyli związek pomiędzy obecnością plastiku w organizmie a problemami zdrowotnymi. Teraz widzimy, że plastik zwiększa ilość toksyn, które wchłaniamy. Dlatego też Demokritou mówi, że przede wszystkim powinniśmy zmniejszać ilość używanego plastiku. Jest to niezwykle ważne w rolnictwie, które używa olbrzymich ilości plastiku np. w postaci agrowłóknin. W ten sposób gleba i woda w miejscu produkcji żywności są dodatkowo zanieczyszczane mikro- i nanoplastikiem, który trafia do żywności, a w końcu do naszych organizmów. Dlatego przynajmniej w rolnictwie powinny być używane w pełni biodegradowalne tworzywa sztuczne. « powrót do artykułu
  20. Eksperci z CSIRO (Commonwealth Scientific and Industrial Research Organisation) agendy naukowej rządu Australii, stworzyli algorytm sztucznej inteligencji, który lepiej niż ludzcy specjaliści rozpoznaje płeć na podstawie wyglądu czaszki. Przyda się ono wszędzie tam, gdzie potrzebna jest dokładna szybka identyfikacja płci, na przykład podczas śledztw kryminalnych czy prac prowadzonych w związku z katastrofami naturalnymi. Nowe narzędzie, stworzone przy pomocy naukowców z University of Western Australia, potrafi określić płeć na podstawie samej tylko czaszki z 97-procentową dokładnością. To znacznie lepszy wynik, niż 82-procentowa dokładność uzyskiwana przez ekspertów medycyny sądowej posługujących się tradycyjnymi metodami. Algorytm sztucznej inteligencji sprawdzono na próbce 200 skanów z tomografu komputerowego, a uzyskane wyniki porównano z wynikami ludzi. "Nasze narzędzie określa płeć około 5-krotnie szybciej niż ludzie. To oznacza, że rodziny czekające na informacje o bliskich szybciej mogą otrzymać informacje. Narzędzie to może być dużą pomocą podczas badań antropologicznych, bardziej precyzyjnie określając płeć i pozwalając uniknąć błędów robionych przez ludzi", mówi doktor Hollie Min, jedna z autorek algorytmu. Twórcy nowego narzędzia mają zamiar nadal je trenować, uwzględniając różne ludzkie populacje, co powinno nie tylko poprawić efektywność algorytmu, ale i spowodować, że będzie bardziej uniwersalny. « powrót do artykułu
  21. Decyzja o wyborze kostki brukowej to jedno z najważniejszych pytań, które zadaje sobie każdy inwestor planujący budowę lub remont. Niezależnie od tego, czy chodzi o drogę dojazdową, taras, alejkę ogrodową czy plac zabaw - odpowiedni producent kostki brukowej jest kluczem do sukcesu. Ale jak go wybrać? Na co zwracać uwagę i jakie kryteria powinny być brane pod uwagę? Na rynku dostępnych jest wiele firm oferujących różnego rodzaju kostkę brukową. Każda z nich ma swoje mocne i słabe strony, a wybór jednej z nich może okazać się nie lada wyzwaniem. Przy podejmowaniu decyzji warto jednak pamiętać o kilku aspektach. Po pierwsze - jakość produktów. Dobry producent kostki brukowej oferuje produkty wykonane z wysokiej jakości materiałów, które są odporne na warunki atmosferyczne i zużycie mechaniczne. Po drugie - oferta. Im szersza gama produktów, tym większa szansa na znalezienie idealnej kostki dla siebie.   Zaufany producent kostki brukowej - gwarancja satysfakcji Jednym z najważniejszych kryteriów przy wyborze producenta kostki brukowej powinny być opinie innych klientów. Warto poszukać informacji na temat firmy w internecie, przeczytać opinie na forach i stronach z recenzjami. Czy klienci są zadowoleni z jakości produktów? Jak oceniają obsługę i terminowość dostaw? Na te pytania warto znaleźć odpowiedź przed podjęciem decyzji o wyborze konkretnego producenta. Ważnym aspektem jest również gwarancja oferowana przez producenta kostki brukowej. Dobry producent powinien oferować co najmniej kilkuletnią gwarancję na swoje produkty, co jest dowodem na ich wysoką jakość i trwałość. Warto też sprawdzić, czy firma posiada certyfikaty potwierdzające jakość oferowanych produktów - takie jak np. certyfikat ISO 9001. Wybór odpowiedniego producenta kostki brukowej to nie lada wyzwanie, ale dzięki uwzględnieniu powyższych kryteriów proces ten może stać się znacznie prostszy i przyjemniejszy. Pamiętajmy jednak, że każda inwestycja wymaga indywidualnego podejścia i nie ma jednej uniwersalnej odpowiedzi na pytanie "którego producenta wybrać". Najważniejsze jest, aby dokonać świadomego wyboru, który przyniesie satysfakcję i spełni oczekiwania. Jeśli szukasz sprawdzonego producenta kostki brukowej, warto zainteresować się ofertą firmy Jadar. Firma ta od lat specjalizuje się w produkcji wysokiej jakości kostki brukowej, ciesząc się zaufaniem wielu klientów. Możesz być pewien, że wybierając Jadar, otrzymasz produkt najwyższej jakości, który spełni Twoje oczekiwania.   Producent kostki brukowej a jakość produktu Wybierając producenta kostki brukowej, nie można zapomnieć o jednym z najważniejszych czynników - jakości produktu. Czy można sobie wyobrazić, że pięknie ułożona ścieżka czy podjazd po kilku latach zaczyna pękać, kruszyć się lub tracić swój pierwotny kolor? To koszmar każdego inwestora i dowód na to, że producent kostki brukowej nie spełnił swojej roli. Dlatego warto poświęcić trochę czasu na sprawdzenie opinii innych klientów, analizę oferowanych przez producenta gwarancji oraz badanie samej kostki. Czy jest ona wykonana z dobrej jakości surowców? Czy ma odpowiednią grubość i wytrzymałość? Jakie są jej parametry techniczne? Nie bez znaczenia jest również kontakt z samym producentem kostki brukowej. Czy jest otwarty na pytania klientów? Czy chętnie dzieli się wiedzą i doświadczeniem? Czy potrafi doradzić w kwestii doboru odpowiedniej kostki do konkretnego projektu? Z pewnością wybór odpowiedniego producenta kostki brukowej to zadanie wymagające czasu i zaangażowania. Ale czyż nie warto poświęcić tego wysiłku, aby cieszyć się pięknym i trwałym efektem końcowym na wiele lat? Wybierając producenta kostki brukowej, pamiętajmy więc o tym, że to nie tylko kwestia ceny. To przede wszystkim inwestycja w jakość, trwałość i estetykę naszego otoczenia. Bo czyż nie o to chodzi? « powrót do artykułu
  22. Nowo odkryty rodzaj tkanki szkieletowej może zostać potencjalnie użyty w medycynie regeneracyjnej oraz inżynierii tkankowej, donoszą naukowcy z Uniwersytetu Kalifornijskiego w Irvine, który stali na czele międzynarodowego zespołu badawczego. Zespołu, który zauważył, że w nosach, uszach i gardłach ssaków występuje nieznana dotychczas tkanka, którą nazwali „lipochrząstką” („lipocartilage”) czy może „tkanką tłuszczowo-chrzęstną". Tkanka chrzęstna jest w dużej mierze pozbawiona komórek, składa się z matrycy pozakomórkowej, która zapewnia jej wytrzymałość. „Tkanka tłuszczowo-chrzęstna” składa się z wypełnionych tłuszczem komórek nazwanych przed odkrywców „lipochondrocytami”, które stabilizują tkankę, dzięki czemu pozostaje miękka i sprężysta, na podobieństwo folii bąbelkowej. Odkrywcy nowej tkanki opisali na łamach Science, jak jaki sposób jej komórki tworzą i utrzymują własne zapasy lipidów. Zauważają też, że – w przeciwieństwie do adipocytów (komórek tłuszczowych) – lipochondrocyty nigdy nie zmieniają swoich rozmiarów, nie kurczą się ani nie powiększają, w odpowiedzi na dostępność pożywienia. Odporność i stabilność lipochrząstki zapewnia elastyczność idealnie dopasowaną do elastycznych części ciała, jak płatki uszu czy czubek nosa. Jej odkrycie otwiera ekscytujące możliwości w dziedzinie medycyny regeneracyjnej i inżynierii tkankowej, szczególnie w odniesieniu do deformacji czy ran twarzy, mówi profesor Maksim Plikus. Obecnie odtworzenie tkanki chrzęstnej wymaga pobrania jej z żebra pacjenta. To bolesna i inwazyjna procedura. W przyszłości będzie można uzyskiwać lipochondrocyty z komórek macierzystych. Dzięki technologii druku 3D tak przygotowane tkanki będą miały precyzyjnie dopasowany kształt, dzięki któremu można będzie naprawić wady wrodzone, skutki urazów czy różnych chorób dotykające tkanki chrzęstnej, dodaje uczony. Autorzy najnowszych badań nie są pierwszymi, którzy zauważyli istnienie lipochondrocytów. Odkrył je Franz Leydig w... 1854 roku, który donosił o obecności kropli tłuszczu w chrząstce uszu szczurów. Jedna nauka zapomniała o tym odkryciu. Teraz, dzięki nowoczesnym metodom badań biochemicznych i zaawansowanym technikom obrazowania, naukowcy mogli dokładnie opisać biologię, metabolizm i strukturę nowej tkanki. Zbadali też procesy genetyczne, które tłumią aktywność enzymów rozkładających tłuszcze i absorbujących nowe ich molekuły, dzięki czemu zapasy tłuszczu w lipochondrocytach pozostają niezmienione. Badacze dowiedli też, że pozbawione lipidów lipochondrocyty stają się sztywne i kruche, co dowodzi, jak ważną rolę odgrywa tłuszcz w ich budowie. Naukowcy zauważyli również, że u niektórych ssaków lipochondrocyty układają się w niezwykłe kształty. Ma to miejsce na przykład w uszach nietoperzy. Niewykluczone, że to dzięki temu lepiej słyszą. « powrót do artykułu
  23. Badacze z Instytutu Rozwoju Człowieka im. Maxa Plancka przeprowadzili metaanalizę, której celem było określenie, jakie osoby są najbardziej podatne na nieprawdziwe informacje i dlaczego. Naukowcy wzięli pod uwagę między innymi takie czynniki jak wiek, wykształcenie, poglądy polityczne czy zdolność do analitycznego myślenia. Z ich analizy wynika, że osoby lepiej wykształcone równie łatwo jak mniej wykształcone ulegają fake newsom, a osoby starsze lepiej niż młodsze odróżniają informacje nieprawdziwe od prawdziwych. Około 5 miliardów ludzi korzysta obecnie z mediów społecznościowych, a rozpowszechniane w nich nieprawdziwe informacje – szczególnie w czasie wyborów – stanowią coraz większy problem. Zjawisko ulegania takim fałszywym informacjom jest przedmiotem intensywnych badań naukowych. Doktorant Mubashir Sultan wraz z kolegami przeprowadzili metaanalizę badań dotyczących mieszkańców USA i ich podatności na nieprawdziwe informacje. Uczeni chcieli sprawdzić, jaki wpływ na ocenę wiarygodności informacji mają takie czynniki jak poziom edukacji, płeć, wiek, poglądy polityczne, identyfikacja polityczna, zdolność do analitycznego myślenia czy rozumowanie umotywowane. Badacze nie zauważyli, by poziom edukacji wpływał na zdolność do odróżniania informacji fałszywych od prawdziwych. Jest to sprzeczne z rozpowszechnionym mniemaniem, jakoby osoby lepiej wyedukowane były mniej podatne na manipulacje. Równie nieprawdziwe, a może nawet bardziej, okazało się przekonanie dotyczące wieku. Starsze osoby są często uważane za bardziej podatne na fake newsy. Tymczasem analiza wykazała, że jest wręcz przeciwnie. Lepiej niż osoby młodsze potrafią odróżnić fałszywe nagłówki od prawdziwych. Pewną rolę odgrywała identyfikacja polityczna. Zwolennicy partii Republikańskiej łatwiej ulegali dezinformacji i częściej niż zwolennicy Demokratów uważali fałszywe nagłówki za prawdziwe. Generalnie jednak ludzie mają tendencję do uważania za prawdziwe tych informacji, które potwierdzają ich własne poglądy i odrzucania informacji przeciwnych. Szczególnie podatne na taką dezinformację są zaś osoby o... lepszych zdolnościach analitycznych. O ile bowiem osoby takie lepiej radzą sobie z dezinformacją w ogóle, łatwiej niż inni odróżniają fałszywe nagłówki prasowe od prawdziwych, to tam, gdzie dotyczy to kwestii politycznych, ich poglądów, radzą sobie gorzej. Dzieje się tak, gdyż uruchamiają wówczas mechanizm rozumowania umotywowanego, które ma chronić ich poglądy, wartości i tożsamość polityczną. Jednak najsilniejszy wpływ na ocenę czy informacja jest prawdziwa, czy fałszywa, miała jej powtarzalność. Jeśli badani widzieli już wcześniej jakiś nagłówek prasowy, to częściej uznawali go za prawdziwy niż w przypadku nagłówków, których nie widzieli. To pokazuje, jak niebezpieczne jest powtarzalne wystawienie na dezinformację, szczególnie w mediach społecznościowych. Metaanaliza została wykonana na podstawie surowych danych z 31 eksperymentów naukowych przeprowadzonych w USA w latach 2006–2023. W badaniach tych wzięło udział łącznie 11 561 osób w wieku od 18 do 88 lat. Analiza to część szerzej zakrojonego programu badawczego nad dynamiką środowisk internetowych. Celem programu jest zrozumienie, w jaki sposób cyberprzestrzeń wpływa na postawy i zachowania ludzi. « powrót do artykułu
  24. W próbkach pobranych z dna Pacyfiku występuje niespodziewanie dużo berylu-10, informują naukowcy z Niemiec i Australii. Ten rzadki izotop powstaje w atmosferze pod wpływem promieniowania kosmicznego i dostarcza cennych informacji na temat geologicznej historii Ziemi. Jego większa od spodziewanej akumulacja na dnie oceanu może mieć związek ze zmianami prądów lub zjawiskami astrofizycznymi, które miały miejsce około 10 milionów lat temu. Nadmiarowy beryl może być znacznikiem, dzięki któremu będziemy mogli bardziej precyzyjnie opisać historię geologiczną naszej planety. Izotopy promieniotwórcze, jak beryl-10, są wykorzystywane do datowania. Najbardziej znanym z nich jest węgiel-14. Jednak metoda radiowęglowa może być wykorzystywana do datowania próbek nie starszych niż około 50 tysięcy lat. Aby datować starsze próbki potrzebujmy innych izotopów, takich jakich beryl-10. Powstaje on w górnych partiach atmosfery, gdy promienie kosmiczne wchodzą w interakcje z tlenem i azotem. Później wraz z deszczem 10Be opada na powierzchnię planety i może akumulować się na dnie oceanów. Czas jego połowicznego rozpadu wynosi 1,4 miliona lat, co pozwala na datowanie próbek starszych niż 10 milionów lat. Niedawno naukowcy z Helmholtz-Zentrum Dresden-Rossendorf (HZDR), Uniwersytetu Technicznego w Dreźnie i Austalijskiego Uniwersytetu Narodowego prowadzili szczegółowe analizy próbek z dna Pacyfiku. Wykorzystali akceleratorową spektrometrię mas do oceny zawartości berylu-10. A gdy sprawdzili uzyskane wyniki, czekała ich niespodzianka. W próbce sprzed około 10 milionów lat znaleźliśmy niemal dwukrotnie więcej 10Be niż się spodziewaliśmy. To nieznana dotychczas anomalia, mówi doktor Dominik Koll z HZDR. Uczeni, by upewnić się, że nie doszło do zanieczyszczenia, poddali podobne analizie inne próbki i uzyskali takie same wyniki. Anomalia taka wymaga wyjaśnienia. Doktor Koll ma dwie hipotezy. Jedna z nich związana jest z cyrkulacją oceaniczną wokół Antarktyki. Przypuszcza się, że 10–12 milionów lat temu doszło tam do znacznych zmian rozkładu prądów morskich. To mogło spowodować, że przez pewien czas dystrybucja 10Be była nierównomierna i spowodowało to szczególnie dużą koncentrację tego pierwiastka na Pacyfiku. Druga z hipotez mówi, że przed 10 milionami lat promieniowanie kosmiczne stało się bardziej intensywne, na przykład w wyniku wybuchu pobliskiej supernowej. Ewentualnie Układ Słoneczny mógł przejściowo utracić swoją warstwę ochronną – heliosferę – na przykład w wyniku kolizji z gęstą chmurą międzygwiezdną. Jedynie dodatkowe pomiary berylu pokażą, czy anomalia spowodowana jest zmianą rozkładu prądów oceanicznych czy wydarzeniem astrofizycznym, mówi Koll. Dlatego chcemy w przyszłości przeanalizować więcej próbek i mamy nadzieję, że inne zespoły naukowe zrobią to samo, dodaje. Jeśli do podobnej anomalii doszło na całej planecie, będzie to oznaczało, że jest ona skutkiem tego, co stało się w przestrzeni kosmicznej. Jeśli występuje tylko lokalnie, prawdopodobnie winna jest zmiana prądów oceanicznych. Zauważony właśnie nadmiar berylu może być niezwykle przydatny w datowaniu geologicznym. Gdy bowiem porównuje się różne zestawy danych głównym problemem konieczność istnienia uniwersalnych znaczników czasowych, które pozwolą zsynchronizować dane. Dla okresów liczonych w milionach lat takie kosmogeniczne znaczniki jeszcze nie istnieją. Ta anomalia może być pierwszym z nich, wyjaśnia Koll. « powrót do artykułu
  25. W regionie Brdy w Czechach już w 1925 roku stał się obszarem wojskowym, nie rozwinięto tam intensywnej infrastruktury. Obszar jest w niewielkim stopniu zdewastowany przez człowieka. W 2018 roku w tamtejszym parku narodowym rozpoczęto projekt rewitalizacji, który miał polegać na wybudowaniu tam i odtworzeniu niezwykle potrzebnych mokradeł. Przeznaczono nań 30 milionów koron (1,2 mln USD). Rozpoczęło się planowanie, uzgodnienia, negocjacje i załatwianie dokumentacji. Po 7 latach okazało, że wszystko na nic. Rodzina bobrów w 2 dni wybudowała tamy. W idealnym miejscu i całkowicie za darmo. Jak zauważa doktor biologii środowiskowej Andrzej Czech, który specjalizuje się w badaniu wpływu bobrów na środowisko nie ma, że zwierzęta pracują od 8 do 15.00, później pakują się do busa i jadą do domu. Działają 24/7/365. Bez urlopów, chorobowych i tacierzyńskich. Muszą sobie radzić z wilkami, psami i pracownikami utrzymania wód. Lisami i mrozem. Kłusownikami i myśliwymi. Powodziami i suszami. Brakiem jedzenia i nieprzewidywalnością. I tak gromadzą ponad 200 milionów metrów sześciennych wody w Polsce w najbardziej istotnych miejscach. Stabilizują i wzbogacają. Chronią i żywią. Bobry z Brdy wybudowały tamy w najlepszym możliwym miejscu, zatrzymując wodę, która uciekała z terenu przez rów odwadniający wybudowany w przeszłości przez wojsko. Wojskowy Zarząd Leśny i Basen Rzeki Wełtawa prowadziły negocjacje dotyczące projektu i rozwiązania problemów związanych z własnością terenu. Bobry były szybsze. Dzięki nim zaoszczędziliśmy 30 milionów koron. Wybudowały tamy bez dokumentacji projektowej i za darmo, mówi Bohumil Fišer z zarządu Obszaru Krajobrazu Chronionego Brdy. Eksperci, którzy wybrali się w teren, by obejrzeć dzieło bobrów i stworzone w ten sposób rozlewisko, stwierdzili, że powstały tam idealne warunki dla rzadkiego raka strumieniowego, żab i wielu innych gatunków zwierząt. Bobry zawsze wiedzą najlepiej. Miejsca, które wybierają na swoje tamy są zawsze idealne. Lepsze niż my projektujemy, dodaje Jaroslav Obermajer z Czeskiej Agencji Ochrony Środowiska i Krajobrazu. Bobry są niezwykle pożytecznymi zwierzętami, które nie tylko pomagają zapobiegać i łagodzić skutki suszy, poprawiają stan środowiska naturalnego – przez co wpływają pozytywnie chociażby na ludzkie zdrowie – ale zmniejszają też ryzyko powodzi i poprawiają jakość wody. Niedawno zaś naukowcy z Wielkiej Brytanii poinformowali, że para bobrów reintrodukowana w pobliżu Plymouth chroni miasto przed powodziami i podtopieniami. « powrót do artykułu
×
×
  • Dodaj nową pozycję...