Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37614
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    246

Zawartość dodana przez KopalniaWiedzy.pl

  1. Z pewnością znacie to uczucie, gdy po obfitym posiłku czujecie się najedzeni i nachodzi Was ochota na coś słodkiego. Naukowcy z Instytutu Badań nad Metabolizmem im. Maxa Plancka w Kolonii odkryli, że tajemnica tego zjawiska tkwi w mózgu. Okazało się bowiem, że te same komórki nerwowe, które informują nas, że już jesteśmy najedzeni, są też odpowiedzialne za nasze późniejsze pożądanie słodkości. I u myszy, i u ludzi chęć zjedzenia czegoś słodkiego jest aktywowane przez uwolnienie peptydu opioidowego o nazwie beta-endorfina. Zablokowanie jej szlaku sygnałowego może być przydatne w leczeniu otyłości. Uczeni z Kolonii, chcąc sprawdzić, dlaczego po obfitym posiłku chcemy zjeść coś słodkiego, badali reakcję myszy na cukier. Odkryli, że najedzone myszy wciąż jadły desery. Badania ich mózgów wykazały, że odpowiedzialne za to są niektóre neurony POMC, które aktywowały się natychmiast, gdy myszy zyskiwały dostęp do cukru. Gdy myszy były najedzone i jadły cukier neurony POMC uwalniały molekuły sygnałowe, które nie tylko informowały o sytości, ale stymulowały też beta-endorfinę. Ta z kolei działała na komórki nerwowe z receptorami opioidowymi, uruchamiając poczucie nagrody, co powodowało, że myszy jadły cukier nawet, gdy były już przejedzone. Szlak opioidowy był aktywowany tylko wówczas, gdy zwierzęta zjadały dodatkowy cukier, ale nie wtedy, gdy zjadały zwykłe pożywienie lub tłuszcz. Gdy naukowcy zablokowali ten szlak, myszy nie chciały jeść dodatkowego cukru. Zjawisko takie miało miejsce tylko  u najedzonych myszy. Gdy zwierzęta były głodne zablokowanie beta-endorfiny nie powodowało, że nie chciały jeść. Co ciekawe, mechanizm ten uruchamiał się gdy tylko myszy wyczuły cukier, nawet gdy jeszcze nie zaczynały go jeść. Co więcej, opiat był uwalniany także w mózgu myszy, które nigdy wcześniej nie miały z cukrem do czynienia. A gdy tylko pierwsza porcja cukru trafiła do pyska myszy, beta-endorfina trafiała do neuronów POMC, wzmacniając zapotrzebowanie na cukier. Autorzy badań postanowili sprawdzić, czy taki sam mechanizm działa u ludzi. Badanym podawali roztwór cukru przez rurkę, jednocześnie skanując ich mózgi. W ten sposób stwierdzili, że doszło do zwiększonej aktywności w tym samym regionie mózgu, co u myszy. To region, który zawiera wiele receptorów opioidowych położonych blisko neuronów informujących o najedzeniu się. Z ewolucyjnego punktu widzenia, ma to sens. Cukier rzadko występuje w naturze, ale błyskawicznie dostarcza energię. Mózg jest więc zaprogramowany tak, by korzystać z cukru, gdy tylko to możliwe, mówi kierujący badaniami Henning Fenselau. « powrót do artykułu
  2. Niskie średnie temperatury na Ziemi, które umożliwiły uformowanie się pokryw lodowych na biegunach, są czymś rzadkim w historii naszej planety. Nowe badania, przeprowadzone przez zespół pod kierunkiem naukowców z University of Leeds, dowodzą, że aby takie warunki klimatyczne się pojawiły, musi dojść do zbiegu wielu złożonych procesów. Uczeni badali, dlaczego Ziemia przez zdecydowaną większość swojej historii była znacznie cieplejsza niż obecnie i nie istniały na niej pokrywy lodowe na biegunach. Dotychczas proponowano wiele hipotez, które miały wyjaśnić pojawianie się glacjałów na Ziemi. Mówiono o zmniejszonym wulkanizmie, zwiększonym pochłanianiu atmosferycznego węgla przez roślinność czy też o reakcji dwutlenku węgla ze skałami. Ciepłe warunki klimatyczne farenozoiku zostały przerwane przez dwa długotrwałe okresy ochłodzenia, w tym obecny, trwający od około 34 milionów lat. Te chłodniejsze okresy zbiegają się z niższą zawartością CO2 w atmosferze, jednak nie jest jasne, dlaczego poziom CO2 spada, piszą naukowcy na łamach Science Advances. Na potrzeby badań stworzyli nowy długoterminowy „Earth Evolution Model”. Jego powstanie było możliwe dzięki ostatnim postępom w technikach obliczeniowych. Model pokazał, że wspomniane ochłodzenia spowodowane były nie pojedynczym procesem, a ich zbiegiem. To wyjaśnia, dlaczego okresy chłodne są znacznie rzadsze od okresów ciepłych. Wiemy teraz, że powodem, dla którego żyjemy na Ziemi z pokrywami lodowymi na biegunach, a nie na planecie wolnej od lodu, jest przypadkowy zbieg bardzo małej aktywności wulkanicznej i bardzo rozproszonych kontynentów z wysokimi górami, które powodują duże opady i w ten sposób zwiększają usuwanie węgla z atmosfery. Bardzo ważnym wnioskiem z naszych badań jest stwierdzenie, że naturalny mechanizm klimatyczny Ziemi wydaje się faworyzować istnienie gorącego świata z wysokim stężeniem CO2 i brakiem pokryw lodowych, a nie obecny świat z niskim stężeniem CO2, pokryty częściowo lodem, mówi główny autor badań, Andrew S. Meredith. To prawdopodobnie preferencja systemu klimatycznego Ziemi ku gorącemu klimatowi uchroniła naszą planetę przed katastrofalnym całkowitym zamienieniem naszej planety w lodową pustynię. Dzięki niej życie mogło przetrwać. Drugi z głównych autorów badań, profesor Benjamin Mills zauważa, że z badań płyną bardzo ważne wnioski. "Nie powinniśmy spodziewać się, że Ziemia zawsze powróci do chłodniejszego okresu, jaki charakteryzował epokę przedprzemysłową. Obecna Ziemia, z jej pokrywami lodowymi jest czymś nietypowym w historii planety. Jednak ludzkość zależy od tego stanu. Powinniśmy zrobić wszystko, by go zachować i powinniśmy być ostrożni, czyniąc założenia, że zatrzymując emisję powrócimy do stanu sprzed globalnego ocieplenia. W swojej długiej historii klimat Ziemi był przeważnie gorący. Jednak w czasie historii człowieka był chłodny. « powrót do artykułu
  3. Wszechświat jest pełen neutrin. Jest ich tak dużo, że w każdej sekundzie przez nasze ciała przelatuje nawet 100 bilionów tych cząstek subatomowych. Mimo tej obfitości neutrino jest najsłabiej poznaną cząstką elementarną. Bardzo słabo oddziałuje ono z materią, dlatego też trudno jest je zarejestrować i badać. Tymczasem fizycy od kilkunastu lat coraz bardziej interesują się neutrinami, gdyż mogą one wyjaśnić wiele tajemnic, na przykład, dlaczego we wszechświecie jest więcej materii niż antymaterii. Jedną z pierwszych cech neutrin, jakie powinniśmy poznać, są ich rozmiary. Znajomość tego parametru pozwoli na zaprojektowanie bardziej precyzyjnych detektorów, dzięki którym można będzie lepiej zbadać neutrina. Międzynarodowy zespół naukowy opisał na łamach Nature opracowaną przez siebie metodę pomiaru rozmiarów neutrino elektronowego oraz uzyskane wyniki. Uczeni przeprowadzili eksperyment, podczas którego obserwowali radioaktywny rozpad berylu (7Be). Rozpada się on do litu (7Li). Podczas tego procesu ma miejsce wychwyt elektronu, kiedy to elektron atomu jest przechwytywany przez proton z jego jądra. Powstaje w ten sposób neutron pozostający w jądrze nowego pierwiastka – litu-7 – oraz emitowane jest neutrino elektronowe. Uwalniana jest energia, która odrzuca nowo powstały atom litu-7 w jednym kierunku, a neutrino w przeciwnym. Badacze obserwowali ten proces w akceleratorze, w którym umieścili bardzo czułe detektory neutrin. Dzięki temu mogli zbadać pęd atomu litu i na tej podstawie obliczyć rozmiary neutrino. Pomiar oddaje kwantową naturę neutrino. Co oznacza, że „rozmiar” należy tutaj rozumieć jako pewien stopień niepewności co do przestrzeni zajmowanej przez neutrino. Z obliczeń wynika, że dolną granicą rozmiarów pakietu falowego neutrino elektronowego jest 6,2 pikometrów. To oznacza, że pakiet falowy neutrin jest znacznie większy niż pakiet falowy typowego jądra atomowego, który liczy się w femtometrach. Dla jądra wodoru jest to ok. 1,2 fm, dla jądra węgla, ok 3,5 fm. « powrót do artykułu
  4. Jedną z metod służących poznaniu naszej historii jest badanie zanieczyszczeń powodowanych przez człowieka. W przeszłości informowaliśmy, że historia starożytnego Rzymu została zapisana w zanieczyszczeniach na Grenlandii, a później informowaliśmy, że Rzymianie zanieczyszczali atmosferę bardziej, niż sądziliśmy. Teraz zaś geolodzy z Uniwersytetu w Heidelbergu znaleźli najstarsze dowody na zanieczyszczenie przez człowieka środowiska ołowiem. Rdzenie z osadów z dna morskiego oraz okolic wybrzeży Morza Egejskiego dostarczyły dowodów, że ludzie zanieczyścili okolicę ołowiem już 5200 lat temu. Odkrycie to, w połączeniu z analizą pyłków roślin zawartych w osadach, daje lepszy wgląd w zmiany społeczno-ekonomiczne regionu Morza Egejskiego. Widać w nich też wydarzenia polityczne, jak na przykład podbój Grecji przez Rzym. W badanym regionie powstały jedne z najstarszych europejskich centrów kulturowych. Wpływ społeczności rolniczo-pasterskich na środowisko widać w wylesianiu oraz zmianie składu pyłków roślin, znajdujących się w osadach. Widzimy, że około 5200 lat temu na południu Europy dochodzi do intensyfikacji takich zmian. Wciąż jednak społeczności te miały jedynie lokalny wpływ na środowisko. Na Półwyspie Bałkańskim metale wytapiano około 7000 lat temu, natomiast technologię kupelacji rud ołowiu w celu pozyskania srebra stosowano w regionie Morza Egejskiego i Bliskiego Wschodu być może już około 6000 lat temu. Technologie te pozostawiły po sobie trwały ślad w środowisku. Dotychczas najstarsze dowody na antropogeniczne zanieczyszczenie ołowiem pochodziły sprzed około 4000 lat. Uczeni z Heidelbergu znaleźli w rdzeniu pobranym z torfowiska w pobliżu Filippii (Tenaghi Philippon) ślady antropogenicznego zanieczyszczenia ołowiem sprzed 5200 lat. Wciąż jednak były to zmiany regionalne. Pierwsze ponadregionalne zanieczyszczenie ołowiem miało miejsce na przełomie III i II wieku naszej ery. Ślady rzymskich zanieczyszczeń znaleziono w lodach Grenlandii. Pochodzą one mniej więcej z czasu podboju Grecji przez Rzym. Kolejny skok zanieczyszczeń miał miejsce około 200 lat później, gdy Imperium Romanum przeżywało okres największego rozkwitu. Wysoki poziom antropogenicznych zanieczyszczeń ołowiem utrzymywał się przez około 1000 lat. Poza wspomnianym skokiem w I wieku, do zwiększenia zanieczyszczeń doszło też około 1700 i 1200 lat temu. Widoczne są też wyraźne spadki, które przypadają na okres władzy dynastii Antoninów (165–180) oraz cesarza bizantyńskiego Justyniana (541–549). W obu tych okresach doszło do dużych epidemii. « powrót do artykułu
  5. Dystrofia mięśniowa Duchenne'a (DMD) to choroba genetyczna o niezwykle poważnych konsekwencjach, jak nieodwracalny zanik mięśni. Powodowana jest mutacją w najdłuższym ludzkim genie, kodującym dystrofinę. W wyniku mutacji tworzone są jedynie fragmenty mRNA zamiast całych mRNA. Uczeni z Instytutu Badań nad Sercem i Płucami im. Maxa Plancka wykazali, te fragmenty mRNA – za pośrednictwem procesu zwanego adaptacją transkrypcyjną  – mogą zostać wykorzystane do wytwarzania dużych ilości utrofiny, kompensując brak dystrofiny. Utrofina jest białkiem o podobnej strukturze co dystrofina, jest syntetyzowana w wieku płodowym, a po porodzie zastępowana przez dystrofinę. Później wykrywana jest tylko w regenerujących się mięśniach. Od dłuższego czasu podejrzewano, że może będzie ją wykorzystać w leczeniu dystrofii mięśniowej. Dystrofia mięśniowa Duchenne'a występuje niemal wyłącznie u chłopców. Pojawia się w około 1 na 5000 urodzeń. Jest chorobą postępującą, jej pierwsze objawy występują w wieku 2-8 lat. Początkowo zanikają mięśnie szkieletowe, z czasem też mięsień sercowy. Chorzy mają coraz większe problemy z poruszaniem się. W wieku około 12 lat większość nie jest w stanie samodzielnie chodzić. Obecnie, dzięki postępom medycyny, średnia długość życia chorych wynosi około 30 lat. Dotychczas leczenie dystrofii Duchenne'a polegało na utrzymaniu sprawności mięśni jak najdłużej to możliwe. Pojawiają się też pierwsze terapie genowe, których celem jest zwiększenie produkcji dystrofiny w komórkach mięśni. Teraz zespół Didiera Stainiera z Instytutu im. Maxa Plancka dokonał ważnego odkrycia. Naukowcy skupili się nie tylko na dystrofinie, ale też na utrofinie. Wiadomo, że zwiększone wytwarzanie utrofiny częściowo rekompensuje brak dystrofiny. Jako pierwsi wykazaliśmy, że ludzkie komórki mięśniowe są w stanie, za pomocą procesu zwanego adaptacją transkrypcyjną, zwiększyć produkcję utrofiny, mówi główna autorka badań, Lara Falcucci. Dotychczas adaptację transkrypcyjną obserwowano jedynie u nicienia C. elegans, danio pręgowanego i myszy. Żeby zrozumieć ten mechanizm, trzeba wiedzieć, że w dystrofii mięśniowej Duchenne'a różne mutacje w genie kodującym dystrofinę uniemożliwiają powstanie funkcjonalnego produktu, czyli białka. Ponadto niektóre mutacje powodują, że mRNA się rozpada na kawałki. Okazało się, ze te kawałki mogą odgrywać nowe role w regulacji innych genów, wyjaśnia Christopher Dooley. Naukowcy z Maxa Plancka wykazali na hodowlach komórek pobranych od pacjentów z DMD, że wspomniane fragmenty mRNA zwiększają produkcję utrofiny w komórkach. Dzieje się tak dzięki mechanizmowy adaptacji transkrypcyjnej. Regulując mechanizm rozpadu mRNA dystrofiny można kontrolować produkcję utrofiny w komórkach. To punkt wyjścia do opracowania terapii, dodaje Falcucci. « powrót do artykułu
  6. Jednym z aspektów ludzkiej kultury jest rozwinięta sztuka kulinarna. Wkładamy wiele wysiłku w przygotowanie i doprawienie żywności. Teraz naukowcy z Uniwersytetu Medycyny Weterynaryjnej w Wiedniu zaobserwowali, że kakadu białookie manipulują pożywieniem, by nadać mu dodatkowy smak i teksturę. Zaczęło się od trzech ptaków – Pipina, Mukiego i Kiwi – które mieszkają w dużej wolierze. Uczeni zauważyli, że ptaki, przed zjedzeniem sucharów, maczały je w wodzie. Zauważyliśmy to zachowanie i zaczęliśmy się zastanawiać, dlaczego kakadu tak się zachowują. Innowacje dotyczące pożywienia są uważane za przejaw inteligencji, więc chcieliśmy sprawdzić, czy odnosi się to do naszych ptaków, mówi doktorant Jeroen Zewald, który kierował badaniami. Naukowcy wysunęli kilka hipotez. Uznali, że ptaki mogą albo myć pożywienie, albo nasączać je wodą, albo zmieniać jego smak, albo używać go jako gąbki, by dostarczać wodę pisklętom. Dzięki szczegółowym obserwacjom przekonali się, że kakadu wsadzają suchary do wody na 20 sekund, czasem obracając je przed zjedzeniem. Postępowały tak tylko z suchym pożywieniem. Woda była czysta, nie nadawała smaku, a ptaki nie miały wówczas młodych. Naukowcy doszli więc do wniosku, że ptakom chodzi o zmianę tekstury pożywienia. Podobnie postępują ludzie, którzy na przykład zanurzają biszkopty w porannej herbacie czy cantucci w winie. To jednak nie koniec niespodzianek. Ku naszemu wielkiemu zdziwieniu zauważyliśmy, że kakadu zanurzają makaron w sojowym jogurcie jagodowym. Prawdopodobnie po to, by go doprawić. Całkiem jak ludzie zanurzający frytki w keczupie, stwierdza Zewald. Naukowcy dostarczyli więc ptakom sojowy jogurt pozbawiony smaku. I okazało się, że ptaki bardzo rzadko maczają w nim makaron. Wszystko wskazuje więc na to, że chodzi o dodatkowy smak. Naukowcy podkreślają, że ich kakadu mają dostęp do jogurtu sojowego, który mogą spożywać. Jogurt z mleka jest dla ptaków szkodliwy. Dotychczas przyprawianie żywności zauważono jedynie w latach 60. XX wieku u makaków japońskich, które zanurzały ziemniaki w słonej wodzie. Nie weryfikowano jednak eksperymentalnie tego zachowania. Nie wszystkie ptaki w grupie zanurzały makaron w jogurcie. To prawdopodobnie oznacza, że jest to nowy wynalazek, a nie część ich naturalnego zachowania, mówi uczony. Co interesujące, zauważono też różnice pomiędzy maczaniem suchego pokarmu w wodzie, a zanurzaniem makaronu w jogurcie. O ile suchy pokarm był ostrożnie wkładany do wody, to makaron był bardzo energicznie przeciągany i obtaczany w jogurcie. Co więcej ptaki zjadały fragment makaronu unurzany w jogurcie i ponownie zanurzały ten fragment, na którym jogurtu nie było. O tym, że to zachowanie nowe, może świadczyć fakt, że nie zaobserwowano go dotychczas ich środowisku naturalnym, w Indonezji. Te kakadu znane są z innowacyjnego podejścia do używania narzędzi w naturze. Potrafią na przykład zaostrzyć patyk, by dostać się do owoców o twardej skorupce. Używanie narzędzi i przyprawianie pożywienia pokazuje, jak są elastyczne, inteligentne i ciekawskie, dodaje profesor Alice Auersperg. Mam nadzieję, że ludzie zaczną brać pod uwagę ich inteligencję, zamiast trzymać je w domu i traktować jak domowe zwierzęta. To energiczne ptaki, które potrzebują wielu godzin aktywności fizycznej i bogatego otoczenia, dodaje uczona. Kakadu białookie znacząco zwiększają naszą wiedzę o inteligencji zwierząt. Uczeni z Austrii zwykle stawiają przed nimi problem i obserwują, jak ptaki dochodzą do jego rozwiązania. Tym razem kakadu rozwiązały problem, którego ludzie przed nimi nie stawiali. Najwyraźniej pożywienie nie bardzo im smakowało i postanowiły temu zaradzić. To pokazuje, że ludzie nie są jedynymi zwierzętami, które mają własne preferencje kulinarne, stwierdza Zewald. « powrót do artykułu
  7. Mikro- i nanoplastik zawarty w glebie i ziemi może znacząco zwiększać ilość toksyn absorbowanych przez rośliny, ludzi i zwierzęta. Naukowcy z Rutgers University informują na łamach NanoImpact, że w sałacie narażonej na działanie nanoplastiku oraz innych obecnych w środowisku zanieczyszczeń – takich jak np. arsen – ilość toksycznych substancji była znacznie większa, niż w sałacie, która miała do czynienia tylko z tradycyjnymi zanieczyszczeniami. Podobne zjawisko zaobserwowano w ludzkich tkankach. Wprowadziliśmy do środowiska już około 7 miliardów ton plastiku, który ciągle się rozpada. Zanieczyszcza on wszystko, co nas otacza – wodę, którą pijemy, pożywienie i powietrze, którym oddychamy, mówi Philip Demokritou, dyrektor Centrum Nanonauki i Zaawansowanych Materiałów na Rutgers University, który był jednym z głównych autorów obu badań. Uczeni wykorzystali model komórkowy ludzkiego jelita cienkiego połączony z aparatem symulującym układ trawienny. Badania wykazały, że obecność mikroplastiku aż sześciokrotnie zwiększyła wchłanianie samego tylko arsenu. Takie samo zjawisko zaobserwowano w przypadku boskalidu, szeroko stosowanego pestycydu, który również w większej ilości akumulował się w ludzkich tkankach w obecności nanoplastiku. Co gorsze, zależność była dwustronna. Nie tylko plastik zwiększa wchłanianie zanieczyszczeń, ale i zanieczyszczenia zwiększają, i to niemal dwukrotnie, wchłanianie plastiku. Wiemy, że materiały w skali nano mogą przekraczać bariery biologiczne. Im są mniejsze, tym łatwiej przedostają się przez warstwy, które chronią nasz organizm, mówi Demokritou. Podczas badań nad sałatą, naukowcy użyli polistyrenu o dwóch rozmiarach, 20 i 1000 nanometrów, oraz arsenu i boskalidu. Odkryli, że mniejsze cząstki miały większy wpływ. Doprowadziły one do 3-krotnego zwiększenia arsenu przez sałatę. Zjawisko takie zaobserwowano zarówno w uprawach hydroponicznych, jak i w przypadku sałaty uprawianej w ziemi. Dzięki zaawansowanym technikom obrazowania naukowcy wykazali, że im mniejsze cząstki, tym łatwiej przedostają się one z korzeni do pozostałych części rośliny. Ludzie wprowadzili do środowiska olbrzymie ilości plastiku. Nie ulega on rozkładowi, tylko rozpada się na coraz mniejsze fragmenty, które z wodą, pożywieniem i powietrzem trafiają do naszych organizmów. Niedawno opisywaliśmy badania, których autorzy zauważyli związek pomiędzy obecnością plastiku w organizmie a problemami zdrowotnymi. Teraz widzimy, że plastik zwiększa ilość toksyn, które wchłaniamy. Dlatego też Demokritou mówi, że przede wszystkim powinniśmy zmniejszać ilość używanego plastiku. Jest to niezwykle ważne w rolnictwie, które używa olbrzymich ilości plastiku np. w postaci agrowłóknin. W ten sposób gleba i woda w miejscu produkcji żywności są dodatkowo zanieczyszczane mikro- i nanoplastikiem, który trafia do żywności, a w końcu do naszych organizmów. Dlatego przynajmniej w rolnictwie powinny być używane w pełni biodegradowalne tworzywa sztuczne. « powrót do artykułu
  8. Eksperci z CSIRO (Commonwealth Scientific and Industrial Research Organisation) agendy naukowej rządu Australii, stworzyli algorytm sztucznej inteligencji, który lepiej niż ludzcy specjaliści rozpoznaje płeć na podstawie wyglądu czaszki. Przyda się ono wszędzie tam, gdzie potrzebna jest dokładna szybka identyfikacja płci, na przykład podczas śledztw kryminalnych czy prac prowadzonych w związku z katastrofami naturalnymi. Nowe narzędzie, stworzone przy pomocy naukowców z University of Western Australia, potrafi określić płeć na podstawie samej tylko czaszki z 97-procentową dokładnością. To znacznie lepszy wynik, niż 82-procentowa dokładność uzyskiwana przez ekspertów medycyny sądowej posługujących się tradycyjnymi metodami. Algorytm sztucznej inteligencji sprawdzono na próbce 200 skanów z tomografu komputerowego, a uzyskane wyniki porównano z wynikami ludzi. "Nasze narzędzie określa płeć około 5-krotnie szybciej niż ludzie. To oznacza, że rodziny czekające na informacje o bliskich szybciej mogą otrzymać informacje. Narzędzie to może być dużą pomocą podczas badań antropologicznych, bardziej precyzyjnie określając płeć i pozwalając uniknąć błędów robionych przez ludzi", mówi doktor Hollie Min, jedna z autorek algorytmu. Twórcy nowego narzędzia mają zamiar nadal je trenować, uwzględniając różne ludzkie populacje, co powinno nie tylko poprawić efektywność algorytmu, ale i spowodować, że będzie bardziej uniwersalny. « powrót do artykułu
  9. Decyzja o wyborze kostki brukowej to jedno z najważniejszych pytań, które zadaje sobie każdy inwestor planujący budowę lub remont. Niezależnie od tego, czy chodzi o drogę dojazdową, taras, alejkę ogrodową czy plac zabaw - odpowiedni producent kostki brukowej jest kluczem do sukcesu. Ale jak go wybrać? Na co zwracać uwagę i jakie kryteria powinny być brane pod uwagę? Na rynku dostępnych jest wiele firm oferujących różnego rodzaju kostkę brukową. Każda z nich ma swoje mocne i słabe strony, a wybór jednej z nich może okazać się nie lada wyzwaniem. Przy podejmowaniu decyzji warto jednak pamiętać o kilku aspektach. Po pierwsze - jakość produktów. Dobry producent kostki brukowej oferuje produkty wykonane z wysokiej jakości materiałów, które są odporne na warunki atmosferyczne i zużycie mechaniczne. Po drugie - oferta. Im szersza gama produktów, tym większa szansa na znalezienie idealnej kostki dla siebie.   Zaufany producent kostki brukowej - gwarancja satysfakcji Jednym z najważniejszych kryteriów przy wyborze producenta kostki brukowej powinny być opinie innych klientów. Warto poszukać informacji na temat firmy w internecie, przeczytać opinie na forach i stronach z recenzjami. Czy klienci są zadowoleni z jakości produktów? Jak oceniają obsługę i terminowość dostaw? Na te pytania warto znaleźć odpowiedź przed podjęciem decyzji o wyborze konkretnego producenta. Ważnym aspektem jest również gwarancja oferowana przez producenta kostki brukowej. Dobry producent powinien oferować co najmniej kilkuletnią gwarancję na swoje produkty, co jest dowodem na ich wysoką jakość i trwałość. Warto też sprawdzić, czy firma posiada certyfikaty potwierdzające jakość oferowanych produktów - takie jak np. certyfikat ISO 9001. Wybór odpowiedniego producenta kostki brukowej to nie lada wyzwanie, ale dzięki uwzględnieniu powyższych kryteriów proces ten może stać się znacznie prostszy i przyjemniejszy. Pamiętajmy jednak, że każda inwestycja wymaga indywidualnego podejścia i nie ma jednej uniwersalnej odpowiedzi na pytanie "którego producenta wybrać". Najważniejsze jest, aby dokonać świadomego wyboru, który przyniesie satysfakcję i spełni oczekiwania. Jeśli szukasz sprawdzonego producenta kostki brukowej, warto zainteresować się ofertą firmy Jadar. Firma ta od lat specjalizuje się w produkcji wysokiej jakości kostki brukowej, ciesząc się zaufaniem wielu klientów. Możesz być pewien, że wybierając Jadar, otrzymasz produkt najwyższej jakości, który spełni Twoje oczekiwania.   Producent kostki brukowej a jakość produktu Wybierając producenta kostki brukowej, nie można zapomnieć o jednym z najważniejszych czynników - jakości produktu. Czy można sobie wyobrazić, że pięknie ułożona ścieżka czy podjazd po kilku latach zaczyna pękać, kruszyć się lub tracić swój pierwotny kolor? To koszmar każdego inwestora i dowód na to, że producent kostki brukowej nie spełnił swojej roli. Dlatego warto poświęcić trochę czasu na sprawdzenie opinii innych klientów, analizę oferowanych przez producenta gwarancji oraz badanie samej kostki. Czy jest ona wykonana z dobrej jakości surowców? Czy ma odpowiednią grubość i wytrzymałość? Jakie są jej parametry techniczne? Nie bez znaczenia jest również kontakt z samym producentem kostki brukowej. Czy jest otwarty na pytania klientów? Czy chętnie dzieli się wiedzą i doświadczeniem? Czy potrafi doradzić w kwestii doboru odpowiedniej kostki do konkretnego projektu? Z pewnością wybór odpowiedniego producenta kostki brukowej to zadanie wymagające czasu i zaangażowania. Ale czyż nie warto poświęcić tego wysiłku, aby cieszyć się pięknym i trwałym efektem końcowym na wiele lat? Wybierając producenta kostki brukowej, pamiętajmy więc o tym, że to nie tylko kwestia ceny. To przede wszystkim inwestycja w jakość, trwałość i estetykę naszego otoczenia. Bo czyż nie o to chodzi? « powrót do artykułu
  10. Nowo odkryty rodzaj tkanki szkieletowej może zostać potencjalnie użyty w medycynie regeneracyjnej oraz inżynierii tkankowej, donoszą naukowcy z Uniwersytetu Kalifornijskiego w Irvine, który stali na czele międzynarodowego zespołu badawczego. Zespołu, który zauważył, że w nosach, uszach i gardłach ssaków występuje nieznana dotychczas tkanka, którą nazwali „lipochrząstką” („lipocartilage”) czy może „tkanką tłuszczowo-chrzęstną". Tkanka chrzęstna jest w dużej mierze pozbawiona komórek, składa się z matrycy pozakomórkowej, która zapewnia jej wytrzymałość. „Tkanka tłuszczowo-chrzęstna” składa się z wypełnionych tłuszczem komórek nazwanych przed odkrywców „lipochondrocytami”, które stabilizują tkankę, dzięki czemu pozostaje miękka i sprężysta, na podobieństwo folii bąbelkowej. Odkrywcy nowej tkanki opisali na łamach Science, jak jaki sposób jej komórki tworzą i utrzymują własne zapasy lipidów. Zauważają też, że – w przeciwieństwie do adipocytów (komórek tłuszczowych) – lipochondrocyty nigdy nie zmieniają swoich rozmiarów, nie kurczą się ani nie powiększają, w odpowiedzi na dostępność pożywienia. Odporność i stabilność lipochrząstki zapewnia elastyczność idealnie dopasowaną do elastycznych części ciała, jak płatki uszu czy czubek nosa. Jej odkrycie otwiera ekscytujące możliwości w dziedzinie medycyny regeneracyjnej i inżynierii tkankowej, szczególnie w odniesieniu do deformacji czy ran twarzy, mówi profesor Maksim Plikus. Obecnie odtworzenie tkanki chrzęstnej wymaga pobrania jej z żebra pacjenta. To bolesna i inwazyjna procedura. W przyszłości będzie można uzyskiwać lipochondrocyty z komórek macierzystych. Dzięki technologii druku 3D tak przygotowane tkanki będą miały precyzyjnie dopasowany kształt, dzięki któremu można będzie naprawić wady wrodzone, skutki urazów czy różnych chorób dotykające tkanki chrzęstnej, dodaje uczony. Autorzy najnowszych badań nie są pierwszymi, którzy zauważyli istnienie lipochondrocytów. Odkrył je Franz Leydig w... 1854 roku, który donosił o obecności kropli tłuszczu w chrząstce uszu szczurów. Jedna nauka zapomniała o tym odkryciu. Teraz, dzięki nowoczesnym metodom badań biochemicznych i zaawansowanym technikom obrazowania, naukowcy mogli dokładnie opisać biologię, metabolizm i strukturę nowej tkanki. Zbadali też procesy genetyczne, które tłumią aktywność enzymów rozkładających tłuszcze i absorbujących nowe ich molekuły, dzięki czemu zapasy tłuszczu w lipochondrocytach pozostają niezmienione. Badacze dowiedli też, że pozbawione lipidów lipochondrocyty stają się sztywne i kruche, co dowodzi, jak ważną rolę odgrywa tłuszcz w ich budowie. Naukowcy zauważyli również, że u niektórych ssaków lipochondrocyty układają się w niezwykłe kształty. Ma to miejsce na przykład w uszach nietoperzy. Niewykluczone, że to dzięki temu lepiej słyszą. « powrót do artykułu
  11. Badacze z Instytutu Rozwoju Człowieka im. Maxa Plancka przeprowadzili metaanalizę, której celem było określenie, jakie osoby są najbardziej podatne na nieprawdziwe informacje i dlaczego. Naukowcy wzięli pod uwagę między innymi takie czynniki jak wiek, wykształcenie, poglądy polityczne czy zdolność do analitycznego myślenia. Z ich analizy wynika, że osoby lepiej wykształcone równie łatwo jak mniej wykształcone ulegają fake newsom, a osoby starsze lepiej niż młodsze odróżniają informacje nieprawdziwe od prawdziwych. Około 5 miliardów ludzi korzysta obecnie z mediów społecznościowych, a rozpowszechniane w nich nieprawdziwe informacje – szczególnie w czasie wyborów – stanowią coraz większy problem. Zjawisko ulegania takim fałszywym informacjom jest przedmiotem intensywnych badań naukowych. Doktorant Mubashir Sultan wraz z kolegami przeprowadzili metaanalizę badań dotyczących mieszkańców USA i ich podatności na nieprawdziwe informacje. Uczeni chcieli sprawdzić, jaki wpływ na ocenę wiarygodności informacji mają takie czynniki jak poziom edukacji, płeć, wiek, poglądy polityczne, identyfikacja polityczna, zdolność do analitycznego myślenia czy rozumowanie umotywowane. Badacze nie zauważyli, by poziom edukacji wpływał na zdolność do odróżniania informacji fałszywych od prawdziwych. Jest to sprzeczne z rozpowszechnionym mniemaniem, jakoby osoby lepiej wyedukowane były mniej podatne na manipulacje. Równie nieprawdziwe, a może nawet bardziej, okazało się przekonanie dotyczące wieku. Starsze osoby są często uważane za bardziej podatne na fake newsy. Tymczasem analiza wykazała, że jest wręcz przeciwnie. Lepiej niż osoby młodsze potrafią odróżnić fałszywe nagłówki od prawdziwych. Pewną rolę odgrywała identyfikacja polityczna. Zwolennicy partii Republikańskiej łatwiej ulegali dezinformacji i częściej niż zwolennicy Demokratów uważali fałszywe nagłówki za prawdziwe. Generalnie jednak ludzie mają tendencję do uważania za prawdziwe tych informacji, które potwierdzają ich własne poglądy i odrzucania informacji przeciwnych. Szczególnie podatne na taką dezinformację są zaś osoby o... lepszych zdolnościach analitycznych. O ile bowiem osoby takie lepiej radzą sobie z dezinformacją w ogóle, łatwiej niż inni odróżniają fałszywe nagłówki prasowe od prawdziwych, to tam, gdzie dotyczy to kwestii politycznych, ich poglądów, radzą sobie gorzej. Dzieje się tak, gdyż uruchamiają wówczas mechanizm rozumowania umotywowanego, które ma chronić ich poglądy, wartości i tożsamość polityczną. Jednak najsilniejszy wpływ na ocenę czy informacja jest prawdziwa, czy fałszywa, miała jej powtarzalność. Jeśli badani widzieli już wcześniej jakiś nagłówek prasowy, to częściej uznawali go za prawdziwy niż w przypadku nagłówków, których nie widzieli. To pokazuje, jak niebezpieczne jest powtarzalne wystawienie na dezinformację, szczególnie w mediach społecznościowych. Metaanaliza została wykonana na podstawie surowych danych z 31 eksperymentów naukowych przeprowadzonych w USA w latach 2006–2023. W badaniach tych wzięło udział łącznie 11 561 osób w wieku od 18 do 88 lat. Analiza to część szerzej zakrojonego programu badawczego nad dynamiką środowisk internetowych. Celem programu jest zrozumienie, w jaki sposób cyberprzestrzeń wpływa na postawy i zachowania ludzi. « powrót do artykułu
  12. W próbkach pobranych z dna Pacyfiku występuje niespodziewanie dużo berylu-10, informują naukowcy z Niemiec i Australii. Ten rzadki izotop powstaje w atmosferze pod wpływem promieniowania kosmicznego i dostarcza cennych informacji na temat geologicznej historii Ziemi. Jego większa od spodziewanej akumulacja na dnie oceanu może mieć związek ze zmianami prądów lub zjawiskami astrofizycznymi, które miały miejsce około 10 milionów lat temu. Nadmiarowy beryl może być znacznikiem, dzięki któremu będziemy mogli bardziej precyzyjnie opisać historię geologiczną naszej planety. Izotopy promieniotwórcze, jak beryl-10, są wykorzystywane do datowania. Najbardziej znanym z nich jest węgiel-14. Jednak metoda radiowęglowa może być wykorzystywana do datowania próbek nie starszych niż około 50 tysięcy lat. Aby datować starsze próbki potrzebujmy innych izotopów, takich jakich beryl-10. Powstaje on w górnych partiach atmosfery, gdy promienie kosmiczne wchodzą w interakcje z tlenem i azotem. Później wraz z deszczem 10Be opada na powierzchnię planety i może akumulować się na dnie oceanów. Czas jego połowicznego rozpadu wynosi 1,4 miliona lat, co pozwala na datowanie próbek starszych niż 10 milionów lat. Niedawno naukowcy z Helmholtz-Zentrum Dresden-Rossendorf (HZDR), Uniwersytetu Technicznego w Dreźnie i Austalijskiego Uniwersytetu Narodowego prowadzili szczegółowe analizy próbek z dna Pacyfiku. Wykorzystali akceleratorową spektrometrię mas do oceny zawartości berylu-10. A gdy sprawdzili uzyskane wyniki, czekała ich niespodzianka. W próbce sprzed około 10 milionów lat znaleźliśmy niemal dwukrotnie więcej 10Be niż się spodziewaliśmy. To nieznana dotychczas anomalia, mówi doktor Dominik Koll z HZDR. Uczeni, by upewnić się, że nie doszło do zanieczyszczenia, poddali podobne analizie inne próbki i uzyskali takie same wyniki. Anomalia taka wymaga wyjaśnienia. Doktor Koll ma dwie hipotezy. Jedna z nich związana jest z cyrkulacją oceaniczną wokół Antarktyki. Przypuszcza się, że 10–12 milionów lat temu doszło tam do znacznych zmian rozkładu prądów morskich. To mogło spowodować, że przez pewien czas dystrybucja 10Be była nierównomierna i spowodowało to szczególnie dużą koncentrację tego pierwiastka na Pacyfiku. Druga z hipotez mówi, że przed 10 milionami lat promieniowanie kosmiczne stało się bardziej intensywne, na przykład w wyniku wybuchu pobliskiej supernowej. Ewentualnie Układ Słoneczny mógł przejściowo utracić swoją warstwę ochronną – heliosferę – na przykład w wyniku kolizji z gęstą chmurą międzygwiezdną. Jedynie dodatkowe pomiary berylu pokażą, czy anomalia spowodowana jest zmianą rozkładu prądów oceanicznych czy wydarzeniem astrofizycznym, mówi Koll. Dlatego chcemy w przyszłości przeanalizować więcej próbek i mamy nadzieję, że inne zespoły naukowe zrobią to samo, dodaje. Jeśli do podobnej anomalii doszło na całej planecie, będzie to oznaczało, że jest ona skutkiem tego, co stało się w przestrzeni kosmicznej. Jeśli występuje tylko lokalnie, prawdopodobnie winna jest zmiana prądów oceanicznych. Zauważony właśnie nadmiar berylu może być niezwykle przydatny w datowaniu geologicznym. Gdy bowiem porównuje się różne zestawy danych głównym problemem konieczność istnienia uniwersalnych znaczników czasowych, które pozwolą zsynchronizować dane. Dla okresów liczonych w milionach lat takie kosmogeniczne znaczniki jeszcze nie istnieją. Ta anomalia może być pierwszym z nich, wyjaśnia Koll. « powrót do artykułu
  13. W regionie Brdy w Czechach już w 1925 roku stał się obszarem wojskowym, nie rozwinięto tam intensywnej infrastruktury. Obszar jest w niewielkim stopniu zdewastowany przez człowieka. W 2018 roku w tamtejszym parku narodowym rozpoczęto projekt rewitalizacji, który miał polegać na wybudowaniu tam i odtworzeniu niezwykle potrzebnych mokradeł. Przeznaczono nań 30 milionów koron (1,2 mln USD). Rozpoczęło się planowanie, uzgodnienia, negocjacje i załatwianie dokumentacji. Po 7 latach okazało, że wszystko na nic. Rodzina bobrów w 2 dni wybudowała tamy. W idealnym miejscu i całkowicie za darmo. Jak zauważa doktor biologii środowiskowej Andrzej Czech, który specjalizuje się w badaniu wpływu bobrów na środowisko nie ma, że zwierzęta pracują od 8 do 15.00, później pakują się do busa i jadą do domu. Działają 24/7/365. Bez urlopów, chorobowych i tacierzyńskich. Muszą sobie radzić z wilkami, psami i pracownikami utrzymania wód. Lisami i mrozem. Kłusownikami i myśliwymi. Powodziami i suszami. Brakiem jedzenia i nieprzewidywalnością. I tak gromadzą ponad 200 milionów metrów sześciennych wody w Polsce w najbardziej istotnych miejscach. Stabilizują i wzbogacają. Chronią i żywią. Bobry z Brdy wybudowały tamy w najlepszym możliwym miejscu, zatrzymując wodę, która uciekała z terenu przez rów odwadniający wybudowany w przeszłości przez wojsko. Wojskowy Zarząd Leśny i Basen Rzeki Wełtawa prowadziły negocjacje dotyczące projektu i rozwiązania problemów związanych z własnością terenu. Bobry były szybsze. Dzięki nim zaoszczędziliśmy 30 milionów koron. Wybudowały tamy bez dokumentacji projektowej i za darmo, mówi Bohumil Fišer z zarządu Obszaru Krajobrazu Chronionego Brdy. Eksperci, którzy wybrali się w teren, by obejrzeć dzieło bobrów i stworzone w ten sposób rozlewisko, stwierdzili, że powstały tam idealne warunki dla rzadkiego raka strumieniowego, żab i wielu innych gatunków zwierząt. Bobry zawsze wiedzą najlepiej. Miejsca, które wybierają na swoje tamy są zawsze idealne. Lepsze niż my projektujemy, dodaje Jaroslav Obermajer z Czeskiej Agencji Ochrony Środowiska i Krajobrazu. Bobry są niezwykle pożytecznymi zwierzętami, które nie tylko pomagają zapobiegać i łagodzić skutki suszy, poprawiają stan środowiska naturalnego – przez co wpływają pozytywnie chociażby na ludzkie zdrowie – ale zmniejszają też ryzyko powodzi i poprawiają jakość wody. Niedawno zaś naukowcy z Wielkiej Brytanii poinformowali, że para bobrów reintrodukowana w pobliżu Plymouth chroni miasto przed powodziami i podtopieniami. « powrót do artykułu
  14. Znalezione na stanowiskach archeologicznych koraliki są dobrymi wyznacznikami poziomu rozwoju technologicznego, organizacji społecznej, szlaków wymiany, a czasem nawet wierzeń. Nic dziwnego, że często są przedmiotem osobnych badań. Takich, jakim poddano największe w historii znalezisko składające się koralików. W latach 2010–2011 archeolodzy prowadzili wykopaliska w tolosie Montelirio w południowo-zachodniej Hiszpanii. Trafili w nim na liczne pochówki – głównie kobiet – oraz olbrzymią liczbę koralików. Zakończone właśnie 5-letnie badania nad koralikami ujawniły, że to największy ich zbiór na świecie. Montelirio stanowi część kompleksu archeologicznego Valencina z epoki miedzi, położonego na obszarze około 450 hektarów. Tolos został odkryty już w około połowy XIX wieku, jednak szybko o nim zapomniano. Wykopaliska podjęto tam w latach 80. XX wieku. W 2008 roku dokonano niezwykłego odkrycia. Znaleziono indywidualny pochówek – już sam ten fakt był niezwykły, gdyż wówczas urządzano głównie pochówki zbiorowe – a w nim osobę o niezwykle wysokim statusie społecznym. Towarzyszyły jej liczne przedmioty z kości słoniowej, a wyróżniał się wśród nich sztylet o ostrzu wykonanym z kryształu górskiego i rękojeści z kości słoniowej ozdobionej 90 koralikami z masy perłowej. Zmarła osoba miała w chwili śmierci 17–25 lat i na podstawie wyposażenia grobu uznano, że mogła być to najpotężniejsza osoba, jaka żyła na terenie Półwyspu Iberyjskiego w okresie przed pojawieniem się kultury pucharów dzwonowatych. W tym czasie najprawdopodobniej nie dziedziczono statusu społecznego czy bogactwa, zatem zmarła osoba – którą nazwano „Ivory Man” – musiała samodzielnie zapracować na swój status. Minęło kilkanaście lat i po specjalistycznych badaniach przeprowadzonych w 2023 roku trzeba było zmienić nazwę znaleziska. Okazało się bowiem, że mamy do czynienia z „Ivory Lady”. To zaś oznaczało, że 3000 lat przed naszą erą, na Półwyspie Iberyjskim, kobiety mogły posiadać najwyższy status społeczny, co rodziło pytania o rolę kobiet w ówczesnym społeczeństwie. Tolos Montelirio znajduje się zaledwie 100 metrów na południe od grobu „Ivory Lady”, jest od niego młodszy. Zatem po śmierci „Ivory Lady” przez 2–3 pokolenia w pobliżu jej grobu urządzano zbiorowe pochówki innych osób o wysokim statusie społecznym. Wewnątrz tolosu znaleziono 25 pochówków, w większości kobiet. Trzy pochowano w korytarzu, dwie w Małej Komorze, a 20 w Wielkiej Komorze. Aż 15 wśród tych 20 osób to kobiety lub prawdopodobnie kobiety, a płci 5 nie udało się ustalić. Zmarłym towarzyszyły przedmioty z kości słoniowej, kryształu górskiego, złota, bursztynu, mylonitu i krzemienia. Jednak tym, co przede wszystkim zwracało uwagę były stroje niektórych kobiet, wykonane z tysięcy koralików. Oraz olbrzymia liczba koralików w ogóle. Naukowcy przez pięć lat zajmowali się ich badaniem. Najpierw 7 osób przez trzy tygodnie zajmowało się czyszczeniem koralików. Same koraliki, jak i ziemię pozostałą po oczyszczeniu, poddano badaniom. W sumie w całym tolosie znaleziono 270 769 koralików. To największy tego typu zbiór na świecie. Naukowcy szacują, że ich wykonanie zajęłoby 10 osobom 7 miesięcy i musiałyby one pracować po 8 godzin dziennie. Do wytworzenia takiej liczby koralików potrzeba było około tony muszli, które przecież trzeba zebrać, przetransportować i zgromadzić. Społeczność, która wykonała koraliki, włożyła w prace nad nimi dużo wysiłku. Specjalistyczne badania wykazały, że koraliki wykonano mniej więcej w czasie śmierci kobiet, przy których je znaleziono, co wskazuje, że były one dobrami grobowymi, a nie przedmiotami codziennego użytku. Co więcej, uzyskane wyniki datowania radiowęglowego nie wykluczają, że wszystkie pochowane kobiety zmarły w podobnym czasie. Jeśli tak było, wysiłek włożony przez społeczność był jeszcze większy. Niezależnie jednak od tego, czy zmarłe pochowano w mniej więcej tym samym czasie, czy też w ciągu dziesięcioleci, tolos Montelirio pokazuje, że w rejonie dzisiejszej Sewilli w stosunkowo krótkim czasie doszło do gwałtownego pojawienia się złożonego społeczeństwa i zaczęły wyłaniać się elity. Prawdopodobnie obserwujemy tutaj szczytowy okres wykorzystywania stroju z koralików jako wyznacznika statusu, a być może także płci i wieku. Podobnie jak w przypadku „Ivory Lady”, tak i w kościach większości kobiet z Wielkiej Komory, znaleziono olbrzymie ilości rtęci. Może to wskazywać, że za życia miały do czynienia z dużą ilością cynobru. Być może były to kapłanki, które w ramach obrzędów pokrywały ciała barwnikiem uzyskiwanym z cynobru. Niektóre z kobiet ubrane były w stroje z koralików. Stroje takie, zakładane zapewne przy specjalnych okazjach, musiały niezwykle opalizować w promieniach słonecznych, tym bardziej podkreślając znaczenie i potęgę noszących je kobiet. « powrót do artykułu
  15. Archeolodzy z francuskiego Narodowego instytutu ratunkowych badań archeologicznych (Inrap) odkryli w Dijon nietypowe celtyckie pochówki. Znajdowały się one na terenie byłego ogrodu klasztoru Zakonu Braci Mniejszych Konwentualnych. Pochówków jeszcze indywidualnie nie datowano, ale wiadomo, że należą do przedstawicieli kultury lateńskiej, datowanej mniej więcej na lata 450 p.n.e. do początku naszej ery. Groby znajdują się mniej niż 100 metrów od miejsca, w którym w latach 90. znaleziono ślady osadnictwa galo-rzymskiego. Niezwykłą cechą pochówków jest fakt, że zmarłych pochowano w pozycji siedzącej. Podczas tych samych wykopalisk znaleziono też nekropolię dzieci, z których każde – jak się wydaje – zmarło przed osiągnięciem 1. roku życia. Groby dzieci pochodzą z I wieku naszej ery. W najstarszej warstwie archeologicznej galijskiego cmentarza jest 13 indywidualnych pochówków. Zmarłych pochowano w okrągłych jamach o średnicy około 1 metra każda, które tworzą rząd długości 25 metrów zorientowany na linii północ-południe. Ciała ułożono w pozycji siedzącej, opierając ich o wschodnią ścianę wykopu, z twarzami zwróconymi na zachód. Ramiona ułożono wzdłuż ciała, dłonie złożono w pobliżu miednicy lub kości udowych. Ich nogi są bardzo mocno zgięte, często asymetrycznie. W grobach nie było żadnych przedmiotów z wyjątkiem pojedynczej bransolety z czarnego kamienia. Styl artystyczny pozwolił na datowanie jej na lata 300–200 p.n.e. Ten zakres dat wyraźnie łączy pochówki z osadnictwem galijskim. Obecnie znamy zaledwie kilkanaście miejsc siedzących pochówków, z czego 9 z Francji i 3 ze Szwajcarii. Wszystkie one były powiązane z siedzibami arystokratycznymi lub miejscami kultu. Żadne nie ma związku z tradycyjną nekropolią. Mamy więc tutaj do czynienia z powtarzającym się wzorcem. Takie struktury grzebalne są umiejscowione poza strefą zamieszkaną, groby zawierają ciała dorosłych mężczyzn, a ich pozycja przypomina metalowe i kamienne figurki znane z końca epoki lateńskiej. Najprawdopodobniej więc są to miejsca pochówku wybranych osób. Nie wiadomo, kim byli zmarli. Członkami najważniejszych rodów, wojownikami, istotnymi przodkami, osobami mającymi duże wpływy polityczne czy religijne? W latach 90. podczas wspomnianych wyżej wykopalisk, znaleziono 2 pochówki siedzące. Ich bliskość sugeruje, że może być to część tego samego kompleksu. Wtedy też odkryto liczne szczątki zwierząt, w tym całe szkielety psów, owiec i świń, co sugeruje odbywanie tutaj praktyk religijnych. Poza pochówkami dorosłych w pozycji siedzącej zidentyfikowano też cmentarz zawierający zwłoki 22 dzieci, zmarłych przed 1. rokiem życia. Brak starszych osób wskazuje, że był to cmentarz dla najmłodszych. Dzieci pochowano w typowych dla epoki pozycjach. Leżały na placach lub na boku. Kamienie, którymi wyłożono pochówki, oraz gwoździe wskazują, że dzieci pochowano w drewnianych trumnach. Niektórym z pochówków towarzyszom dobra grobowe, jak monety czy ceramika. « powrót do artykułu
  16. Naukowcy z Wydziału Fizyki Uniwersytetu Oksfordzkiego wykonali ważny krok w kierunku praktycznego wykorzystania komputerów kwantowych. Jako pierwsi zaprezentowali kwantowe przetwarzanie rozproszone. Wykorzystali przy tym fotoniczny interfejs, za pomocą którego połączyli dwa procesory kwantowe w jeden w pełni działający komputer. Swoje osiągnięcie opisali na łamach Nature. W ten sposób zapoczątkowali rozwiązanie problemu skalowalności maszyn kwantowych. Dzięki temu można, przynajmniej teoretycznie, połączyć olbrzymią liczbę niewielkich urządzeń kwantowych, które działałyby jak jeden procesor operujący na milionach kubitów. Zaproponowana na Oksfordzie architektura składa się z niewielkich węzłów, z których każdy zawiera małą liczbę kubitów, na które składają się jony uwięzione w pułapkach. Połączone za pomocą światłowodów węzły można ze sobą splątać, co pozwala na przeprowadzanie obliczeń kwantowych, podczas których wykorzystuje się kwantową teleportację. Oczywiście już wcześniej różne zespoły naukowe potrafiły dokonać kwantowej teleportacji stanów. Wyjątkowym osiągnięciem uczonych z Oksfordu jest teleportacja bramek logicznych. Zdaniem badaczy, kładzie to podwaliny pod „kwantowy internet” przyszłości, w którym odległe procesory utworzą bezpieczną sieć komunikacyjną i obliczeniową. Autorzy dotychczasowych badań nad kwantową teleportacją skupiali się na teleportacji stanów kwantowych pomiędzy fizycznie oddalonymi systemami. My użyliśmy kwantowej teleportacji do przeprowadzenia interakcji pomiędzy takimi systemami. Precyzyjnie dostrajając takie interakcje możemy przeprowadzać operacje na bramkach logicznych pomiędzy kubitami znajdującymi się w oddalonych od siebie miejscach. To pozwala na połączenie różnych procesorów kwantowych w jeden komputer, mówi główny autor badań Dougal Main. Wykorzystana koncepcja jest podobna do architektury superkomputerów, w których poszczególne węzły obliczeniowe – de facto osobne komputery – są połączone tak, że działają jak jedna wielka maszyna. W ten sposób naukowcy ominęli problem upakowania coraz większej liczby kubitów w jednym komputerze, zachowując jednocześnie podatne na zakłócenia stany kwantowe, niezbędne do przeprowadzania operacji obliczeniowych. Taka architektura jest też elastyczna. Pozwala na podłączania i odłączanie poszczególnych elementów, bez zaburzania całości. Badacze przetestowali swój komputer za pomocą algorytmu Grovera. To kwantowy algorytm pozwalający na przeszukiwanie wielkich nieuporządkowanych zbiorów danych znacznie szybciej niż za pomocą klasycznych komputerów. Nasz eksperyment pokazuje, że obecna technologia pozwala na kwantowe przetwarzanie rozproszone. Skalowanie komputerów kwantowych to poważne wyzwanie technologiczne, które prawdopodobnie będzie wymagało nowych badań w dziedzinie fizyki i będzie wiązało się poważnymi pracami inżynieryjnymi w nadchodzących latach, dodaje profesor David Lucas z UK Quantum Computing and Simulation Lab. « powrót do artykułu
  17. Naukowcy z University of Toronto bezpośrednio powiązali spadek populacji niedźwiedzi polarnych żyjących w zachodniej części Zatoki Hudsona ze zmniejszającą się wskutek globalnego ocieplenia powierzchnią lodu morskiego. Opracowany model wykazał, że liczba niedźwiedzi się zmniejsza, gdyż zwierzęta nie są w stanie zapewnić sobie wystarczającej ilości energii, gdyż krócej mogą polować na foki. Utrata lodu morskiego oznacza, że niedźwiedzie coraz mniej czasu w roku spędzają na polowaniach, a coraz więcej poszczą na lądzie, mówi główna autorka badań, Louise Archer. Skrócenie sezonu polowań negatywnie wpływa na równowagę energetyczną zwierząt, co prowadzi do zmniejszenia reprodukcji, spadku przeżywalności młodych i spadku liczebności całej populacji. Wykorzystany model badał ilość energii, jaką niedźwiedzie pozyskują obecnie polując na foki i ilość energii, jaką potrzebują, by rosnąć i się rozmnażać. Unikatową cechą tego modelu jest jego zdolność do śledzenia pełnego cyklu życiowego poszczególnych zwierząt. Wyniki uzyskane z modelu porównano z danymi dotyczącymi niedźwiedzi z zachodnich regionów Zatoki Hudsona, zgromadzonymi w latach 1979–2021. W ciągu tych 42 lat populacja niedźwiedzi spadła o niemal 50%. Zmniejszyła się też masa poszczególnych osobników. W ciągu 37 lat waga przeciętnej dorosłej samicy zmniejszyła się o 39 kilogramów, a przeciętnego 1-rocznego zwierzęcia o 26 kg. Okazało się, że model trafnie opisał, że takie procesy miały miejsce, co oznacza, że będzie też dobrze przewidywał to, co stanie się w przyszłości. Co więcej jednak, wykazał, że istnienie związek pomiędzy zmniejszaniem się zasięgu lodu morskiego, a spadkiem populacji niedźwiedzi. Im krócej niedźwiedzie mogą polować, tym mniej mleka wytwarza samica, co jest niebezpieczne dla młodych. Małe niedźwiadki zginą, jeśli przed pierwszym w życiu sezonem postu nie osiągną odpowiedniej masy ciała. Samice mają też mniej młodych – tutaj zauważono spadek o 11% w czasie 40 lat – a potomstwo pozostaje z nimi na dłużej, gdyż później zyskuje zdolność do samodzielnego przeżycia. To bardzo proste. Przeżywalność młodych ma bezpośrednie przełożenie na przeżycie populacji, dodaje Archer. Zachodnia część Zatoki Hudsona od dawna uważana jest za region, w którym wcześnie pojawiają się zjawiska dotykające całej światowej populacji niedźwiedzi polarnych. Arktyka ociepla się 4-krotnie szybciej niż reszta globu, więc podobne problemy czekają inne populacje niedźwiedzi. To jedna z najbardziej na południe wysuniętych populacji i jest monitorowana od dawna, więc mamy bardzo dobre dane na jej temat, stwierdza profesor Péter Molnár, który specjalizuje się w badaniu wpływu globalnego ocieplenia na duże ssaki. Mamy bardzo solidne podstawy, by wierzyć, że to, co dzieje się z niedźwiedziami polarnymi tutaj, będzie działo się z tym gatunkiem w innych regionach. Tan model opisuje przyszłość niedźwiedzi, dodaje uczony. « powrót do artykułu
  18. Długość, szerokość i głębokość dwóch kanionów znajdujących się po niewidocznej z Ziemi stronie Księżyca są podobne do rozmiarów Wielkiego Kanionu Kolorado, informują naukowcy z Lunar and Planetary Institute (LPI). O ile jednak Wielki Kanion powstawał przez miliony lat, kaniony na Księżycu pojawiły się w czasie krótszym niż... 10 minut. Niemal cztery miliardy lat temu asteroida lub kometa przeleciała nad biegunem południowym Księżyca, otarła się o szczyty Malapert i Mouton i uderzyła w powierzchnię. Zderzenie wyrzuciło strumienie skał, które wyrzeźbiły kaniony o rozmiarach ziemskiego Wielkiego Kanionu, mówi główny autor badań, David Kring z Universities Space Research Association do którego należy LPI. Obiekt, który utworzył oba kaniony, w chwili uderzenia pędził z prędkością 55 000 kilometrów na godzinę. W wyniku upadku powstał 320-kilometrowy krater uderzeniowy Schrödinger. Przyciągnął on uwagę grupy naukowców, stając się okazją do zbadania wczesnych etapów rozwoju Układu Słonecznego. Dzięki danym dostarczonym przez Lunar Reconnaissance Orbiter naukowcy poznali rozmiary kanionów. Vallis Schrödinger ma ok. 270 km długości, ok. 20 km szerokości i 2,7 km głębokości, a Vallis Planck – 280 km długości, 27 szerokości i 3,5 km głębokości, a na długości 860 km rozciągają się kratery uderzeniowe powstałe w wyniku upadku materiału, który go wyrzeźbił. Badania pokazały, że kratery powstały w wyniku uderzeń szczątków z upadku asteroidy lub komety. Wyrzucone w wyniku pierwotnego uderzenia skały leciały z prędkością 3600 km/h wywołując kolejne uderzenia, która wyrzeźbiły kaniony. Energia potrzebna do ich powstania była 130-krotnie większa niż energia całej broni atomowej będącej w posiadaniu ludzkości. « powrót do artykułu
  19. Otyłość wiąże się z większym ryzykiem cukrzycy, nadciśnienia czy miażdżycy. Jednak nie wszyscy otyli cierpią na te choroby. Około 25% otyłych jest zdrowych. Naukowcy nie od dzisiaj próbują się dowiedzieć, dlaczego tak się dzieje. Badacze z Federalnego Instytutu Technologii w Zurichu oraz Uniwersyteckiego Szpitala Klinicznego w Lipsku przeprowadzili kompleksowe badania, które dostarczają niezbędnych informacji potrzebnych do rozróżnienia otyłych zdrowych i chorych. Uczeni skupili się przede wszystkim na stworzeniu szczegółowego atlasu ciała zdrowych i chorych otyłych, uwzględniają w tym rozkład tkanki tłuszczowej oraz aktywność genów w jej komórkach. Nasze badania mogą zostać wykorzystane do szukania markerów komórkowych, które dostarczą informacji na temat ryzyka rozwoju chorób metabolicznych, mówi jeden ze współautorów badań, Adhideb Ghosh. Uczeni wykorzystali zbiór tkanek pobranych podczas biopsji osób otyłych. Tkanki, przechowywane w Leipzig Obesity Biobank, zostały pobrane przez naukowców z Uniwersytetu w Lipsku od pacjentów, którzy poddani byli planowanym zabiegom informacyjnym. Wraz z tkankami w banku przechowywane są szczegółowe informacje na temat stanu zdrowia dawców. Jako, że biobank gromadzi wyłącznie tkanki osób otyłych – zarówno zdrowych, jak i z chorobami metabolicznymi – można było wykonać odpowiednie porównania. Na próbkach 70 osób uczeni zbadali aktywność genów w komórkach dwóch rodzajów tkanki tłuszczowej – podskórnej i trzewnej. Panuje przekonanie, że głównym problemem jest tkanka trzewna, otaczająca organy wewnętrzne. Ta podskórna stanowi mniejszy problem. Bardzo ważnym elementem badań było sprawdzenie różnych komórek wchodzących w skład tkanki tłuszczowej. Nie tylko komórek tłuszczowych (adipocytów), ale też innych rodzajów komórek wchodzących w skład tej tkanki, takich jak komórki układu odpornościowego, komórki tworzące naczynia krwionośne czy niedojrzałe prekursorowe komórki adipocytów. W tkance trzewnej występują też komórki międzybłonka wyściełającego jamy ciała. Uczeni z Lipska i Zurychu wykazali, że u osób z chorobami metabolicznymi mają miejsce znaczące zmiany funkcjonowania komórek tłuszczowej tkanki trzewnej. Zmiana ta dotyczy niemal każdego rodzaju komórek w tej tkance. Okazało się na przykład, że u chorych osób adipocyty tkanki trzewnej nie są w stanie spalać efektywnie tłuszczu i w związku z tym wytwarzają więcej molekuł sygnałowych układu immunologicznego. Substancje te uruchamiają odpowiedź immunologiczną tkance trzewnej otyłych ludzi. Możliwe, to właśnie powoduje rozwój chorób metabolicznych, mówi Isabel Reinisch. Badacze zauważyli też wyraźną różnice w liczbie i funkcjonowaniu komórek międzybłonka. U zdrowych otyłych komórki te stanowiły większy odsetek tkanki tłuszczowej i większą elastyczność funkcjonalną. Przede wszystkim mogły niejako przełączać się w tryb komórek macierzystych i zmieniać się w inne typy komórek, jak na przykład komórki adipocytów. To było zaskakujące. Zdolność w pełni zróżnicowanych komórek do zmiany w komórki macierzyste jest kojarzona przede wszystkim z nowotworami. Sądzimy, że taka elastyczność komórek międzybłonka, znajdujących się na krawędziach tkanki tłuszczowej, ułatwia bezproblemowy rozrost tkanki, mówi Reinisch. Badacze zauważyli też, że istnieją różnice w komórkach tkanek kobiet i mężczyzn. Pewien rodzaj komórek progenitorowych znaleziono tylko w trzewnej tkance tłuszczowej kobiet. Ich obecność może wyjaśniać różnice w rozwoju chorób metabolicznych u otyłych kobiet i mężczyzn. Naukowcy nie wiedzą, czy zaobserwowana zmiana aktywności genów w komórkach tkanki tłuszczowej osób chorych jest przyczyną czy skutkiem chorób metaboliczych. Uzyskane przez nich wyniki mogą być punktem wyjścia do zbadania tych kwestii. « powrót do artykułu
  20. Grupa ekspertów postanowiła odpowiedzieć na pytanie, czy pozaziemska cywilizacja o podobnym do naszego poziomie rozwoju technologicznego, byłaby w stanie wykryć Ziemię i zdobyć dowody na istnienie ludzkości, a jeśli tak, to jakie sygnały mogliby wykryć i z jakiej odległości. Zespół, pracujący pod kierunkiem doktor Sofii Sheikh z SETI Institute, składał się ze specjalistów z projektu Characterizing Atmospheric Technosignatures oraz Penn State Extraterrestrial Intelligence Center. Do przeprowadzenia analizy – pierwszej tego typu – naukowcy wykorzystali modele teoretyczne. Wykazały one, że pozaziemska cywilizacja z największej odległości mogłaby wykryć sygnały radiowe, takie jak te pochodzące z niedziałającego już Radioteleskopu Arecibo. Obcy mogliby zauważyć je z odległości do 12 000 lat świetlnych. Zatem sygnał taki mogłaby wykryć cywilizacja znajdująca się w połowie odległości między Ziemią a centrum Drogi Mlecznej. Radioteleskop Arecibo nie istnieje, więc pozostają nam inne sygnały, na podstawie których można nas odnaleźć. Deep Space Network (DSN), używaną przez NASA sieć komunikacyjną do łączenia się z pojazdami przebywającymi w przestrzeni kosmicznej, obcy mogliby zauważyć z odległości 65 lat świetlnych. Jednak tutaj musimy na chwilę się zatrzymać. W obu tych przypadkach – Arecibo i DSN – musimy pamiętać, że podane odległości są większe niż czas, jaki upłynął od uruchomienia tych urządzeń. Zatem ani pierwszy sygnał z Arecibo nie dotarł jeszcze na odległość 1200 lś, ani sygnału z DSN nie można zauważyć obecnie z odległości 65 lat świetlnych. Im bliżej Ziemi, tych więcej technosygnatur, sygnałów świadczących o obecności cywilizacji technicznej. I tak sygnatury atmosferyczne, takie jak emisja dwutlenku azotu, są dla nas obecnie łatwiejsze do wykrycia niż były jeszcze dekadę temu. Dzięki takim instrumentom jak Teleskop Webba czy planowany Habitable Worlds Observatory (HWO) możemy zauważyć obcą cywilizację z większej niż wcześniej odległości. Tak więc cywilizacja dysponująca HWO mogłaby dostrzec nas z odległości 5,7 lat świetlnych. To odległość nieco większa, niż dystans dzielący nas od najbliższej gwiazdy, Proximy Centauri. Z podobnej odległości można zarejestrować lasery wycelowane w niebo. Ludzkość czasami korzysta z takich instrumentów jak Deep Space Optical Communications, którego NASA używa do testów technologii komunikacji laserowej w przestrzeni kosmicznej. Z odległości 4 lat świetlnych można zauważyć sygnały sieci bezprzewodowych LTE. Z kolei sygnał z Voyagera jest widoczny z 0,97 roku świetlnego. Obcy mogliby wykryć też światła miast. Szczególnie te generowane przez lampy sodowe, które mają unikatowe sygnatury. Ich obserwacja jest możliwa z odległości 0,036 roku świetlnego. To 2275 jednostek astronomicznych, a więc obszar położony w pobliżu wewnętrznych krawędzi Obłoku Oorta. Z regionów Pasa Kuipera (30–50 au) obcy mogliby odnotować obecność miejskich wysp ciepła, a gdyby mieszkali na Marsie mieliby szansę zauważyć satelity krążące wokół Ziemi. Celem badań było pokazanie, w jakim miejscu my sami znajdujemy się, jeśli chodzi o możliwość wykrywania technosygnatur świadczących o obecności pozaziemskich cywilizacji. W SETI nigdy nie zakładamy, że życie i poziom rozwoju technologicznego na innych planetach są takie same jak nasze. Jednak ocena naszych możliwości pozwala zobaczyć badania prowadzone przez SETI w odpowiednim kontekście, mówi współautor badań, Macy Huston. « powrót do artykułu
  21. Wystarczy dosłownie minuta gry, by odróżnić dziecko z autyzmem od dziecka z ADHD lub dziecka bez zaburzeń. Computerized Assessment of Motor Imitation (CAMI) to komputerowe narzędzie opracowane przez naukowców z Kennedy Krieger Institute oraz Nottingham Trent University. Wykorzystuje ono technologię śledzenia ruchu do wykrywania różnic w zdolności do naśladowania motoryki i na tej podstawie pozwala – w ciągu minuty – odróżnić dziecko autystyczne od dziecka zdrowego i z innymi zaburzeniami. W testach CAMI wzięło udział 183 dzieci w wieku 7–13 lat. Poproszono je, by przez minutę naśladowały ruchy widocznego na ekranie awatara. W tym czasie CAMI oceniało zdolność do naśladownictwa. Badania wykazały, że narzędzie potrafi z 80-procentową skutecznością odróżnić dziecko autystyczne od zdrowego i z 70-procentową, autyka od dziecka z ADHD. Twórców narzędzia szczególnie cieszy to druga liczba, gdyż autyzm i ADHD często występują razem i nawet eksperci mają problemy z postawieniem właściwej diagnozy. Zdiagnozowanie autyzmu może być trudne, szczególnie u dzieci, u których występują też inne zaburzenia, jak ADHD. A jeśli postawi się niewłaściwą diagnozę, dziecko może nie otrzymać odpowiedniej pomocy, mówi doktor Stewart Mostofsky, neurolog dziecięcy z Kennedy Krieger Institute. Autyzm jest tradycyjnie postrzegany jako zaburzenie komunikacji społecznej, ale wiemy, że trudności sensoryczno-motoryczne, na przykład związane ze zdolnością do naśladowania ruchów, odgrywają rolę w kształtowaniu zdolności społecznych i komunikacyjnych. CAMI identyfikuje autyzm, opierając się na tych cechach, które odróżniają go od ADHD. Tym, co czyni CAMI tak ekscytującym, jest prostota. Gry wideo są zabawne dla dzieci, a lekarzowi dostarcza jasnych wyników, dzięki którym może on szybko postawić diagnozę, dodaje doktor Bahar Tunçgenç z Nottingham Trent University, która specjalizuje się w badaniu rozwoju społecznego. Twórcy CAMI chcą też przystosować swoje narzędzie do diagnozowania młodszych dzieci oraz dzieci z poważniejszymi zaburzeniami rozwojowymi. Mają nadzieję, że w ten sposób zapoczątkują powstanie całej klasy narzędzi, które pozwolą na szybkie i tanie diagnozowanie różnych zaburzeń. « powrót do artykułu
  22. Fresk przed 700 lat dowodzi, że w chrześcijańskich kościołach używano muzułmańskich namiotów do zasłaniania ołtarzy, uważa doktor Federica Gigante z Uniwersytetu w Cambridge. Uczona na łamach The Burlington Magazine opisała odkrycie, na ślad którego wpadła przed laty. Fresk, który od setek lat jest tylko częściowo widoczny, pozwala też lepiej poznać chrześcijańską tradycję zasłaniania ołtarzy. Gigante zwróciła uwagę na niezwykły fresk 10 lat temu podczas zwiedzania kościoła w klasztorze Sant'Antonio in Polesine w Ferrarze. Początkowo wydawało mi się to zbyt ekscytujące i niewiarygodne, by na fresku mógł być przedstawiony muzułmański namiot. Szybko odrzuciłam ten pomysł i wróciłam do niego lata później, gdy miałam więcej doświadczenia i odwagi w prowadzeniu badań. Prawdopodobnie nigdzie indziej nie znajdziemy podobnego fresku. Nie przestałam szukać, ale sądzę, że ten jest unikatowy, mówi uczona. Jej zdaniem fresk jest kluczowym dowodem na używanie muzułmańskich namiotów w praktykowaniu religii chrześcijańskiej, również podczas mszy. W średniowieczu w kościołach używano kosztownych tekstyliów od zasłaniania ołtarza. To dość słabo zbadana praktyka, którą zarzucono w XVI wieku. Ołtarz mógł być zasłonięty przed oczami wiernych przez cały czas, w czasie mszy lub podczas szczególnych okresów liturgicznych. Zasłony takie zwano tetravela. Gdy zaś namiot nie był rozpięty nad ołtarzem, o jego splendorze miał przypominać fresk. Wiemy, że islamskie tekstylia były obecne w chrześcijańskich kościołach. Fragmenty, którymi obecnie dysponujemy, owijały relikwie lub były używane w czasie pochówków ważnych osobistości. Doktor Gigante, która specjalizuje się w badaniu wymiany intelektualnej i materialnej pomiędzy światem muzułmańskim a chrześcijańskim we wczesnej nowożytności, wyjaśnia, że islamskie tekstylia były kojarzone z Ziemią Świętą, skąd przywozili je pielgrzymi i krzyżowcy. Uważali, że istnieje artystyczna ciągłość od czasów Chrystusa, więc używanie takich materiałów w chrześcijańskim kontekście było bardziej niż usprawiedliwione. Chrześcijanie w średniowiecznej Europie podziwiali sztukę islamu, chociaż w pełni jej nie rozumieli, stwierdza uczona. Fresk z Sant'Antonio in Polesine powstał między końcem XIII a początkiem XIV wieku i przedstawia baldachim rozpięty nad ołtarzem. Namalowany w apsydzie przekształca ją samą w namiot z tkaniny owiniętej wokół trzech ścian i zwieńczony dwupoziomowym stożkiem wyłożonym klejnotami, typowym dla świata muzułmańskiego. Tło stanowią niebo i ptaki, co miało sprawiać wrażenie namiotu rozpiętego na wolnej przestrzeni. Na początku XV wieku fresk częściowo przykryto scenami z życia Marii i Jezusa. I to właśnie ten młodszy fresk przyciągał dotychczas uwagę historyków sztuki, którzy nie zajmowali się widocznymi fragmentami starszego dzieła. Zdaniem doktor Gigante starszy fresk przedstawia prawdziwy namiot, który najprawdopodobniej był rozwieszany w tym właśnie kościele. Malunek miał o nim przypominać, gdy namiot był zdjęty. Wzajemne oddziaływanie pomiędzy prawdziwymi tekstyliami a ich malarskimi przedstawieniami jest powszechne w Europie i świecie islamu pod koniec średniowiecza, przypomina uczona. I zauważa, że w ścianach apsydy znajdują się gwoździe oraz wsporniki, które mogły służyć jako wsparcie dla rozwieszonego materiału. Silnym dowodem na używanie muzułmańskiego namiotu do przykrywania ołtarza jest niezwykle szczegółowe przedstawienie. Widzimy elementy zdobnicze w kształcie ośmioramiennych gwiazd wpisane w medalion, których środek jest zdobiony płatkami złota. Dokładnie w taki sposób zdobione były cenne muzułmańskie namioty. Wzdłuż krawędzi tkaniny artysta przedstawił pas z rzekomo arabskim inskrypcjami. Autor fresku był tak dokładny, że namalował nawet białe kontury, które podkreślały kontrasty kolorystyczne, a które były popularne w XIII-wiecznych tkaninach z Andaluzji. Wszystko na fresku – struktura tkaniny, projekt i schemat kolorystyczny – bardzo przypomina znane nam przedstawienia andaluzyjskich namiotów, znane na przykład z XIII-wiecznego manuskryptu Cantigas de Santa Maria. Co więcej, przedstawienie z fresku jest podobne do „Fermo chasuble”, ornatu należącego prawdopodobnie do Thomasa Becketa, arcybiskupa Canterbury. Ornat ten to najstarszy znany przykład użycia muzułmańskiej tkaniny w liturgicznym kontekście chrześcijańskim. Ornat mógł zostać wykonany właśnie z namiotu. Doktor Gigante odpowiada też na pytanie, w jaki sposób muzułmański namiot mógł trafić do chrześcijańskiego kościoła. Uczona przypomina, że w XIII wieku wokół ołtarzy często prezentowano sztandary i inne łupy wojenne. Namioty, szczególnie muzułmańskie namioty królewskie, były jednymi z najbardziej cenionych prezentów dyplomatycznych, najwspanialszymi insygniami władzy w obozowiskach i najbardziej pożądanymi łupami wojennymi, wyjaśnia uczona. Namioty często trafiały w różne miejsca Europy jako zdobycze wojenne. Powszechnym zwyczajem było wynagradzanie oddziałów najemnych tekstyliami, a namiot był najwyższą nagrodą. Wiemy na przykład, że taki wspaniały prezent otrzymał papież Innocenty III, któremu wysłano namiot kalifa Muhammada an-Nasira, zdobyty podczas bitwy pod Las Navas de Tolosa (1212), jednej z przełomowych bitew rekonkwisty. Fresk z Ferrary odpowiada opisom królewskich namiotów, jakie chrześcijanie zdobywali w XIII wieku podczas wojen na terenie al-Andalus. Wspaniały muzułmański namiot mógł trafić do klasztornego kościoła bezpośrednio z rąk papieża. Od IX wieku papieże często dawali tetrawela w prezencie kościołom. Z zachowanych dokumentów wiemy, że papież Innocenty IV wysłał do klasztoru Sant'Antonio in Polesine tkaniny z najwspanialszego jedwabiu i złota. Tak więc przedstawiony na fresku namiot mógł być prezentem od samej głowy Kościoła. Autorka badań nie wyklucza, że Innocenty IV wysłał muzułmański namiot klasztorowi w Ferrarze jako część podarunku dyplomatycznego dla potężnego rodu d'Este, który należał do stronnictwa gwelfów wspierającego papiestwo w walce z cesarstwem oraz pośredniczył w zawieraniu sojuszy z rodami gibelinów (wspierających cesarstwo). Klasztor Sant'Antonio in Polesine został założony przez Beatrycze d'Este, a jej ród był jego patronem. Ze wstępną wersją artykułu dr Gigante można zapoznać się na stronie Uniwersytetu Oxfordzkiego. « powrót do artykułu
  23. Skuteczna komunikacja mailowa to znacznie więcej niż tylko regularne wysyłanie wiadomości do subskrybentów. Prawdziwa siła e-mail marketingu leży w budowaniu autentycznych relacji, które wykraczają poza standardowe metryki otwarć i kliknięć. Nasze skrzynki odbiorcze są przepełnione automatycznymi wiadomościami, dlatego osobiste podejście do komunikacji staje się kluczowym wyróżnikiem.   Fundamenty autentycznej komunikacji mailowej Budowanie więzi z odbiorcami zaczyna się na długo przed wysłaniem pierwszego maila przy pomocy EmailLabs czy podobnej usługi. Warto zrozumieć, że każdy subskrybent to realna osoba z własnymi motywacjami, obawami i oczekiwaniami. Profesjonaliści e-mail marketingu wiedzą, że sukces długoterminowy zależy od głębokiego zrozumienia psychologii odbiorcy.   Psychologia przywiązania w komunikacji mailowej Skuteczni marketerzy wiedzą, że każda interakcja z subskrybentem to okazja do wzmocnienia relacji – szczególnie jeśli jest oparta na solidnych podstawach psychologii behawioralnej. Istotne jest tu zrozumienie tego, że różne mechanizmy psychologiczne mogą wpływać na budowanie długotrwałych relacji w środowisku cyfrowym. W praktyce e-mail marketingu możemy wyróżnić kilka kluczowych mechanizmów psychologicznych, które mają szczególne znaczenie w budowaniu więzi z odbiorcami. Znaczenie segmentacji behawioralnej   https://pl.freepik.com/darmowe-zdjecie/kubek-z-naklejka-szefa_9640474.htm#fromView=search&page=1&position=2&uuid=4d5c0bf7-6c80-428a-ad3c-1a05627c6169&new_detail=true&query=segmentacja+KLIENT%C3%93W Zaawansowana segmentacja to fundament skutecznej personalizacji. Współczesne narzędzia e-mail marketingowe pozwalają na tworzenie złożonych profili odbiorców w oparciu o ich zachowania, preferencje i historię interakcji. Profesjonaliści wykorzystują te dane do tworzenia precyzyjnie dostosowanych ścieżek komunikacji.   Projektowanie ścieżek komunikacji Efektywna strategia e-mail marketingowa opiera się na zrozumieniu "momentów prawdy" w relacji z odbiorcą: pierwsze wrażenie - seria powitalna musi natychmiast potwierdzić słuszność decyzji o subskrypcji; moment zaufania - regularnie dostarczana wartość buduje wiarygodność nadawcy; punkty krytyczne - odpowiednia reakcja na sygnały braku zaangażowania może uratować relację; momenty decyzyjne - właściwe wsparcie w procesie podejmowania decyzji zakupowych. Tworzenie wartościowych treści Wartościowy content to znacznie więcej niż tylko poprawnie napisany tekst. To precyzyjnie dobrane informacje, które odpowiadają na realne potrzeby odbiorcy w danym momencie jego "podróży". Skuteczni marketerzy potrafią łączyć edukację z subtelnymi elementami sprzedażowymi.   Elementy angażującej komunikacji mailowej Kluczowe składniki mailingu, który buduje relacje: wprowadzanie elementów storytellingu, które pozwalają odbiorcy utożsamić się z przekazem; wykorzystywanie mechanizmów social proof w sposób nienaruszający prywatnościinnych klientów; tworzenie poczucia ciągłości narracji między kolejnymi wiadomościami; implementacja elementów grywalizacji zachęcających do długoterminowego zaangażowania.   Rola automatyzacji w budowaniu relacji https://pl.freepik.com/darmowe-zdjecie/workdesk-z-koperty-i-laptopa_926677.htm#fromView=se arch&page=1&position=24&uuid=555ab384-a1ce-49d9-98d8-d90ae1c539c9&new_detail=true& query=automatyzacja+email Zabrzmi to paradoksalnie, ale właściwie skonfigurowana automatyzacja może uczynić komunikację bardziej osobistą. Zaawansowane systemy marketing automation pozwalają na tworzenie spersonalizowanych sekwencji wiadomości, które reagują na konkretne zachowania odbiorcy.   Personalizacja zachowań automatycznych Skuteczna automatyzacja wymaga głębokiego zrozumienia: momentów w cyklu życia subskrybenta, które wymagają specjalnej uwagi; sygnałów świadczących o zmianie poziomu zaangażowania; wzorców zachowań wskazujących na gotowość do konwersji; symptomów świadczących o ryzyku utraty zainteresowania.   Dynamiczna adaptacja contentu Zaawansowane systemy e-mail marketingowe potrafią dostosowywać nie tylko treść, ale również ton i format komunikacji w zależności od poziomu zaangażowania odbiorcy. Ta elastyczność pozwala na utrzymanie optymalnego poziomu interakcji nawet przy długich cyklach komunikacyjnych.   Analiza behawioralna w praktyce Zrozumienie zachowań subskrybentów wymaga systematycznego podejścia do analizy danych. Oto jak profesjonaliści interpretują różne wzorce zachowań w kontekście budowania relacji:     Integracja wielokanałowa Skuteczne budowanie relacji wymaga spójnej komunikacji - w każdym jej aspekcie. E-mail marketing nie działa w próżni, musi być zintegrowany z innymi punktami styku z marką. Profesjonaliści dbają o to, by doświadczenie użytkownika było spójne niezależnie od kanału kontaktu.   Technologia w służbie relacji Nowoczesne platformy e-mail marketingowe oferują zaawansowane możliwości integracji z innymi systemami, co pozwala na tworzenie prawdziwie omnikanałowego doświadczenia. Kluczem do sukcesu jest umiejętne wykorzystanie tych możliwości bez przytłoczenia odbiorcy nadmiarem komunikacji.   Znaczenie analizy kontekstowej Skuteczne mierzenie siły relacji wymaga uwzględnienia szerszego kontekstu rynkowego i konkurencyjnego. Profesjonaliści e-mail marketingu regularnie analizują nie tylko bezpośrednie interakcje, ale również szerszy obraz zachowań odbiorców w różnych kanałach komunikacji.   Wnioski końcowe Budowanie autentycznych relacji przez e-mail to sztuka łącząca psychologię, technologię i strategiczne myślenie. Sukces w tym obszarze wymaga ciągłej ewolucji i adaptacji do zmieniających się potrzeb odbiorców, przy jednoczesnym zachowaniu fundamentalnych zasad efektywnej komunikacji. Przyszłość e-mail marketingu należy do marek, które potrafią połączyć zaawansowaną personalizację z autentycznym, ludzkim podejściem do budowania relacji.   Często zadawane pytania (FAQ) Jak często należy aktualizować segmenty odbiorców? Dynamiczna segmentacja wymaga regularnej weryfikacji i dostosowywania kryteriów podziału. Profesjonaliści rekomendują przeprowadzanie pełnej analizy segmentów co najmniej raz na kwartał, z jednoczesnym wdrożeniem automatycznych mechanizmów reagujących na znaczące zmiany w zachowaniu odbiorców w czasie rzeczywistym. Kluczowe jest również uwzględnienie sezonowości i naturalnych cykli w zachowaniach odbiorców, które mogą wpływać na tymczasowe zmiany w przynależności do segmentów. Jak zachować balans między automatyzacją a personalizacją? Skuteczna automatyzacja powinna być niewidoczna dla odbiorcy, działając jako wsparcie dla naturalnej komunikacji. Profesjonaliści zalecają implementację automatyzacji warstwowo, rozpoczynając od podstawowych scenariuszy i stopniowo dodając bardziej zaawansowane mechanizmy w oparciu o rzeczywiste zachowania odbiorców. Najważniejsze jest zachowanie możliwości szybkiej interwencji ludzkiej w przypadku nietypowych sytuacji lub szczególnie wartościowych interakcji z kluczowymi odbiorcami. Kiedy warto rozważyć zmianę głównej narracji w komunikacji? Zmiana narracji to poważna decyzja, która powinna być podejmowana w oparciu o wyraźne sygnały od odbiorców, nie tylko chwilowe spadki zaangażowania. Dobrym pomysłem jest tu przeprowadzenie dogłębnej analizy behawioralnej obejmującej co najmniej kilka cykli komunikacyjnych przed wprowadzeniem znaczących zmian w głównym przekazie. Istotne jest również przygotowanie strategii płynnego przejścia, która pozwoli na stopniową ewolucję narracji bez ryzyka utraty już zbudowanych więzi. Jaka jest optymalna długość sekwencji powitalnej? Sekwencja powitalna powinna być dostosowana do złożoności produktu lub usługi oraz typowego cyklu decyzyjnego odbiorcy. Warto tu przyjąć elastyczne podejście oparte na obserwacji punktów zaangażowania specyficznych dla danej grupy odbiorców. Kluczowe jest monitorowanie, w którym momencie sekwencji odbiorcy najczęściej podejmują pożądane akcje, i odpowiednie dostosowywanie długości ścieżki. Jak reagować na okresy niskiej aktywności stałych odbiorców? Spadek aktywności długoterminowych subskrybentów wymaga szczególnie delikatnego podejścia. Rekomendowane jest tu wdrożenie wieloetapowej strategii reaktywacyjnej, która rozpoczyna się od subtelnych zmian w treści i częstotliwości komunikacji, zanim przejdzie do bardziej bezpośrednich prób ponownego zaangażowania. Ważne jest również uwzględnienie naturalnych cykli życiowych i biznesowych, które mogą wpływać na czasowe zmniejszenie aktywności. Jak mierzyć skuteczność elementów storytellingowych w mailach? Pomiar efektywności storytellingu wykracza poza standardowe metryki e-mail marketingowe. Eksperci zalecają tworzenie złożonych wskaźników uwzględniających nie tylko bezpośrednie interakcje, ale również długoterminowy wpływ na zachowania odbiorców i ich przywiązanie do marki. Szczególnie istotne jest śledzenie, jak różne elementy narracyjne wpływają na zaangażowanie w kolejnych etapach komunikacji. « powrót do artykułu
  24. Naukowcy z Uniwersytetu w Johannesburgu, Justin Bradfield, Ian A. Dubery i Paul A. Steenkamp, informują o zidentyfikowaniu najstarszej wieloskładnikowej trucizny używanej podczas polowania. Znajdowała się ona na grotach strzał sprzed 7000 lat odkrytych przed dziesięcioleciami w Jaskini Krugera w górach Magaliesberg. W 1983 roku archeolodzy znaleźli niezwykłą kość udową niezidentyfikowanego gatunku antylopy. Wewnątrz kości znajdowały się trzy groty kościanych strzał, co sugerowało, że służyła ona jako kołczan. Kość trafiła do magazynu Wydziału Archeologii Uniwersytetu Witwatersrand. W 2022 roku grupa archeologów rozpoczęła ponowne badania w Jaskini Krugera, gdzie kość znaleziono. Postanowili więc przyjrzeć się ponownie temu, co odkryli ich poprzednicy. Wśród badaczy był Justin Bradfield, którego szczególnie interesują dawne materiały organiczne. Wykonana przez niego analiza wykazała, że wewnątrz kości znajduje się niezidentyfikowana substancja, w skład której wchodzi digitoksyna i strofantydyna. To glikozydy nasercowe, silne trucizny występujące w roślinach. Jednak nie występują razem, a to oznacza, że mamy tutaj do czynienia z najstarszym pewnym użyciem wieloskładnikowej celowo przygotowanej trucizny. Co więcej, w kości zidentyfikowano też kwas rycynolowy, którego obecność może świadczyć o użyciu jeszcze jednego toksycznego składnika, rycyny. Wytworzenie trucizny ze składników pochodzących z kilku źródeł świadczy zarówno o zdolnościach poznawczych producenta, jak i o jego dogłębnej znajomości botaniki. Oczywiście nie jest to najstarszy przypadek użycia trucizny podczas polowania, ale najstarszy przykład użycia trucizny wieloskładnikowej. Niewykluczone, że truciznę podczas polowań używano już 60–70 tysięcy lat temu. Znajdowane w Afryce groty strzał z tego okresu noszą ślady substancji, którymi były mocowane do promienia. Jednocześnie jednak ich przekrój jest tak mały, że prawdopodobnie strzały nie mogły zranić dużego zwierzęcia na tyle poważnie, by poniosło ono śmierć. Stąd też przypuszczenie, że pomocna w polowaniu była trucizna. Natomiast najstarsze molekularne dowody na prawdopodobne stosowanie trucizny pochodzą sprzed 24 tysięcy lat. W Jaskini Border w RPA znaleziono drewnianą szpatułkę z kwasem rycynolowym. Dowód ten jest jednak kwestionowany, gdyż kwas rycynolowy występuje też w oleju rycynowym, który nie jest toksyczny i jest szeroko stosowany w medycynie oraz do pielęgnacji skórzanej odzieży. Jeśli nawet mamy tutaj dowód na użycie trucizny – a obecność kwasu rycynolowego w kości z Jaskini Krugera prawdopodobnie wspiera taką interpretację – to była to trucizna jednoskładnikowa. Dotychczas najstarszymi dowodami na używanie złożonych trucizn podczas polowania były strzały z Naga ed Der w Egipcie, datowane na lata 2481–2005 p.n.e. Strzały z Jaskini Krugera są o około 3000 lat starsze. Datowanie radiowęglowe węgla drzewnego z warstwy, w której znaleziono kość wykazało, że pochodzą one z lat 5659–5480 p.n.e. Łączenie różnych składników, czy to w celu wytworzenia lepiszczy do strzał, leków czy trucizn, wiele mówi o zdolnościach poznawczych ich wytwórców oraz ich wiedzy. Neandertalczycy już 200 tysięcy lat temu potrafili destylować lepiszcze z kory brzozowej. W południowej Afryce już co najmniej 60 000 lat temu produkowano substancje klejące łącząc żywicę, ochrę i tłuszcz. Zastosowanie takich technologii wymagało również wiedzy o składnikach. Ich wytwórcy musieli niejednokrotnie wędrować dziesiątki kilometrów, by znaleźć odpowiednie ingrediencje. Nic dziwnego, że tak cenna wiedza była przekazywana z pokolenia na pokolenie i do dzisiaj istnieją społeczności, które podczas polowania wykorzystują te same trucizny, których używano przed tysiącami lat. « powrót do artykułu
  25. Osteoporoza spowodowana jest zaburzeniem naturalnego procesu resorpcji (wchłaniania) kości i ich odtwarzania. Choroba niesie ze sobą olbrzymie koszty społeczne i ekonomiczne. Aż 40% kobiet po 50. roku życia doznaje co najmniej 1 poważnego złamania spowodowanego osteoporozą. U mężczyzn odsetek ten wynosi około 20%. Ludzie często nie zdają sobie sprawy z tego, jak poważny jest ich stan. Aż 20% starszych osób, u których doszło do złamania szyjki kości udowej, umiera w ciągu roku, a ponad połowa osób, u których pojawiło się złamanie, nigdy nie wraca do wcześniejszego poziomu aktywności. Po zdiagnozowaniu osteoporozy chorym zwykle podaje się leki, które albo zmniejszają resorpcję kości, albo przyspieszają ich odtwarzanie. Jednak musi minąć nawet rok, zanim skutki leczenia będą widoczne. W tym czasie pacjent narażony jest na złamania. Szwajcarscy naukowcy pracują nad rozwiązaniem tego problemu. Dominique Pioletti z Laboratorium Ortopedii Biomechanicznej na Szwajcarskim Federalnym Instytucie Technologicznym w Lozannie opracował wraz z zespołem hydrożel, który po wstrzyknięci do kości błyskawicznie miejscowo zwiększa jej gęstość. Badania, których wyniki opublikowano w piśmie Bone, wykazały, że u szczurów laboratoryjnych dochodziło nawet do 5-krotnego zwiększenia gęstości kości nóg. Jako pierwsi wykazaliśmy, że połączenie systematycznego podawania leków i miejscowej injekcji naszego żelu prowadzi do szybkiego zwiększenia gęstości kości, mówi Pioletti. Obecnie istnieje kilka podobnych terapii. W ich trakcie używa się past, które twardnieją na podobieństwo cementu. Łatwy do wstrzyknięcia żel opracowany na EPFL składa się z kwasu hialuronowego oraz nanocząstek hydroksyapatytu i tworzy strukturę podobną do naturalnej budowy kości. Szczegółowe analizy pokazały, że same injekcje hydrożelu, niezależnie od terapii lekami, lokalnie zwiększały gęstość kości nawet 3-krotnie. Jednak najlepsze wyniki uzyskiwano podczas terapii łączonej. Gdy szczurom podawano hormon polipeptydowy PTH, który odpowiada w organizmie za regulację gospodarki wapniowo-fosforanowej oraz wstrzyknięto hydrożel wymieszany kwasem zoledronowym, gęstość kości w miejscu wstrzyknięcia wzrosła 4,8-krotnie w ciągu zaledwie 2-4 tygodni. « powrót do artykułu
×
×
  • Dodaj nową pozycję...