Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36957
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. Podczas badań archeologiczno-architektonicznych na Ostrowie Tumskim, prowadzonych w ramach przebudowy oraz remontu Muzeum Archidiecezjalnego we Wrocławiu, na dziedzińcu wewnętrznym między Domem Kapituły, Muzeum Archidiecezjalnym a biblioteką kapitulną odkryto klatkę schodową z XVII-XIX w. i relikty budynku z XIV w. Wojewódzki Urząd Ochrony Zabytków we Wrocławiu poinformował, że klatka schodowa prowadziła do piwnicy Domu Kapituły (niewykluczone, że pełniła również funkcję zadaszenia wejścia). Oprócz tego natrafiono na dobrze zachowany bruk z rynsztokiem oraz wspomniane na początku relikty budynku z XIV w. (najpewniej gospodarczego). Jak zapowiada Konserwator, bruk zostanie zachowany i odtworzony w takiej samej formie z oryginalnego materiału po badaniach całego dziedzińca. Prace będą nadal prowadzone; do zbadania pozostała bowiem jeszcze większa część dziedzińca. Prace wykopaliskowe obejmują także piwnice Domu Kapituły. Jak napisał Andrzej Zwoliński z Gazety Wrocławskiej, prowadzone są tam badania stratygraficzne - na ich podstawie odkryto historyczne malowidła i miejsca po pierwotnych, dzisiaj już zamurowanych, przejściach. Część przejść zostanie odkuta i przywrócona do pierwotnej funkcji, część będzie wyeksponowana. Na zdjęciach udostępnionych przez Urząd na Facebooku widać np. przejście między piwnicą a parterem, które zostało zamurowane w czasach nowożytnych. « powrót do artykułu
  2. Naszym rozmówcą jest dr n. med. Tomasz Stępień, adiunkt w Instytucie Psychiatrii i Neurologii i koordynator wyjątkowego projektu Digital Brain. Doktor Stępień specjalizuje się w neuropatologii, jest autorem licznych prac naukowych z tej dziedziny. Poza tym opiekuje się największym zbiorem mózgów na świecie. Jest Pan koordynatorem projektu Digital Brain. Na czym on polega? Kto będzie mógł korzystać z cyfrowych zasobów platformy? Digital Brain to projekt digitalizacji, gromadzonych od przeszło pół wieku, zasobów Instytutu Psychiatrii i Neurologii. Wychodząc naprzeciw potrzebom środowiska naukowego i medycznego, przy współpracy z Centrum Projektów Polska Cyfrowa i Ministerstwem Cyfryzacji, powołano do życia projekt o nazwie Digital Brain. Głównym celem przyświecającym autorom projektu było zdigitalizowanie skolekcjonowanego materiału archiwalnego Zakładu Neuropatologii, Instytutu Psychiatrii i Neurologii. W grupie docelowej projektu znalazły się także instytucje szkolnictwa wyższego, jednostki naukowe, placówki medyczne, przedsiębiorcy rozwijający innowacyjne technologie medyczne, organizacje pozarządowe zajmujące się ochroną zdrowia. Platforma Digital Brain powstała przede wszystkim z myślą o lekarzach, naukowcach różnych specjalności, psychologach, studentach, dziennikarzach popularnonaukowych, a także wszystkich tych, którzy są zainteresowani neuronauką. Dzięki takiej formie szerzenia wiedzy udostępnione zasoby nauki będą cennym materiałem dla lekarzy i naukowców poszukujących czynników patogenetycznych, prowadzących badania nad nowymi biomarkerami i terapiami w jednostkach chorobowych. Czy mógłby Pan opowiedzieć o historii zbiorów Instytutu Psychiatrii i Neurologii? Przeczytałam, że archiwizację fragmentów mózgu zapoczątkowała wybitna polska neuropatolog, prof. Ewa Osetowska. Od lat 50. kolekcja się rozrastała. Czy to prawda, że obecnie należy do największych na świecie? Jak ma się jej wielkość do zasobów Harvard Brain Tissue Resource Center czy LIBD? W zasobach Instytutu Psychiatrii i Neurologii znajduje się ogromny, unikalny zbiór mózgów Zakładu Neuropatologii, obejmujący materiał gromadzony od 1952 roku do chwili obecnej przez kolejne pokolenia neuropatologów. Archiwizację fragmentów mózgów zainicjowała wybitna polska neuropatolog, prof. Ewa Osetowska. Kolekcja obejmuje zbiór fragmentów mózgów utrwalonych w zbuforowanym roztworze formaliny, bloczki parafinowe, preparaty histologiczne i immunohistochemiczne oraz protokoły neuropatologiczne z kilkudziesięciu jednostek chorobowych. Mózg przeznaczony do diagnostyki neuropatologicznej zostaje umieszczony w zbuforowanym roztworze formaliny w celu utrwalenia. Sekcja utrwalonego mózgu przeprowadzana jest metodą Spielmeyera. Podczas sekcji mózgu został sporządzony protokół badania neuropatologicznego wraz z wykazem pobranych wycinków mózgu. Do protokołu badania neuropatologicznego zostały dołączone dane kliniczne i patologiczne. Pobrane fragmenty mózgu zostały zatopione w parafinie. Skrojone 5-8-μm preparaty zostały zabarwione metodami histologicznymi oraz metodami immunohistochemicznymi przy użyciu odpowiednich przeciwciał. Po wykonaniu diagnostyki mikroskopowej fragmenty mózgów, bloczki, preparaty i protokoły badania neuropatologicznego zostają zarchiwizowane. Całość stworzyła zasoby o unikalnym charakterze, które są gotowym materiałem do dalszych badań. Wyjątkowy charakter zasobów Instytutu Psychiatrii i Neurologii podkreśla fakt, że jest największa tego typu kolekcja na świecie. « powrót do artykułu
  3. Niedawno zidentyfikowany kompleks proteinowy fabkin reguluje metabolizm i może odgrywać kluczową rolę w rozwoju cukrzycy typu I oraz II, informują naukowcy z Harvard T.H. Chan School of Public Health. O swoim odkryciu poinformowali na łamach Nature. Uczeni przypominają, że uwalnianie energii nagromadzonej w komórkach tłuszczowych jest niezwykle ważnym elementem strategii przeżycia w okresach niedoboru pożywienia. Jednak niekontrolowana lub chroniczna lipoliza połączona z insulinoopornością lub niedoborem insuliny niszczy równowagę metaboliczną, stwierdzają. Naukowcy od dziesięcioleci poszukiwali sygnału, który jest zaangażowany w przekazywanie informacji o zasobach energetycznych komórek tłuszczowych w celu wygenerowania odpowiedniej reakcji układu hormonalnego, w tym produkcji insuliny przez trzustkę. Odkryliśmy, że fabkin to hormon, który kontroluje te funkcje za pośrednictwem bardzo nietypowe mechanizmu molekularnego, mówi jeden z głównych autorów badań, Gökhan S. Hotamisligil. Naukowcy wykazali, że gdy białko wiążące kwasy tłuszczowe (FABP4 – fatty-acid-binding protein 4) jest wydzielane przez komórki tłuszczowe i trafia do krwioobiegu, łączy się z enzymami NDPK (kinaza difosforanów nukleozydów) oraz ADK (kinaza adenozynowa), tworząc kompleks proteinowy o nazwie fabkin. W kompleksie tym FABP4 modyfikuje działanie NDPK i ADK tak, że regulują one poziomy ATP i ADP, niezwykle ważnych molekuł biorących udział w transporcie energii w komórkach. Naukowcy odkryli, że na powierzchni komórek znajdują się receptory wyczuwające stosunek ATP do ADP i reagujące na zmieniający się stan energetyczny. W ten sposób fabkin reguluje funkcjonowanie tych komórek. Naukowcy odkryli, że poziom fabkin we krwi myszy i ludzi z cukrzycą typu 1. i 2. był wysoki. Stwierdzili również, że zablokowanie aktywności fabkin zapobiegało rozwinięciu się obu typów cukrzycy u zwierząt. Odkrycie znaczenia fabkin wymagało od nas przemyślenia sposobu funkcjonowania hormonów. Jestem niezwykle podekscytowana zidentyfikowaniem fabkin, a jeszcze bardziej długoterminowymi implikacjami tego odkrycia", mówi główna autorka badań Kacey Prentice. « powrót do artykułu
  4. Opracowany w Belgii nowy materiał do produkcji ubrań może nas ogrzewać lub chłodzić, wszystko zależy od tego, którą stroną go włożymy. Symulacje przeprowadzone przez Muluneha Abebe i jego kolegów z belgijskiego Uniwersytetu w Mons wykazały, że ubrania z tego materiału zapewniają komfort termiczny w temperaturach różniących się nawet o 13 stopni. Gdy znajdujemy się na zewnątrz około połowy ciepła tracimy przez zjawiska przewodnictwa i konwekcji. Ogrzewać możemy się nakładając kolejne warstwy ubrań. Jednak drugą część ciepła tracimy przez promieniowanie podczerwone, zarówno ze skóry jak i powierzchni okrywających nas ubrań. W tym wypadku możemy bronić się przed utratą ciepła blokując promieniowanie podczerwone, lub też chłodzić się – zwiększając je. Już podczas wcześniejszych badań belgijscy naukowcy wykazali, że niektóre materiały mogą efektywnie absorbować promieniowanie podczerwone z powierzchni naszej skóry, a następnie efektywnie je uwalnia do otoczenia. W ten sposób ułatwiają nam chłodzenie się. Dotychczas jednak tego typu materiały zawierały nieprzepuszczalne membrany, które więziły powietrze i wilgoć, więc ich noszenie byłoby niekomfortowe. Abebe i jego zespół zaprezentowali teoretyczny model materiału o grubości 20 mikrometrów, który składa się z dwóch różnych warstw. Jednej wytworzonej z włókien dielektrycznych, drugiej z włókien metalicznych. Włókna dielektryczne emitują duże ilości promieniowania podczerwonego, zaś włókna metaliczne charakteryzuje niska emisja. Po stworzeniu takiego modelu naukowcy obliczyli jego właściwości transmisji promieniowania podczerwonego, jego odbijania i absorpcji. Z obliczeń wynika, że jeśli materiał dotykałby skóry, zapobiegałby ucieczce ciepła i odczuwalibyśmy komfortowe ciepło w temperaturze nawet 11 stopni Celsjusza. Z kolei po odwróceniu na drugą stronę efektywnie by nas chłodził w temperaturze dochodzącej do 24 stopni Celsjusza. Nowy materiał byłby elastyczny i wygodny w używaniu, a przestrzenie między włóknami umożliwiałyby ucieczkę wilgoci. Abebe przyznaje, że ze względu na wysokie koszty wytworzenia takiego materiału, na pewno nie pojawi się on na rynku w najbliższym czasie. Jednak uczeni mają nadzieję, że ich badania zainspirują kolejne grupy naukowe i w końcu pojawią się wygodne tanie ubrania o właściwościach chłodzących i ogrzewających. Materiał został opisany na łamach Physical Review Applied. « powrót do artykułu
  5. Adres IP może posłużyć między innymi do określenia lokalizacji danego sprzętu, co znacznie zmniejsza prywatność w sieci i może narazić użytkowników na różnego rodzaju problemy. Jego zmiana nie jest jednak zbyt trudna ani czasochłonna. Jak można to zrobić? Dlaczego warto zmieniać adres IP? Sam adres IP to podstawowy identyfikator urządzenia w sieci. Jego wartość może być łatwo powiązana z fizyczną lokalizacją komputera czy innego sprzętu. Nie jest to zazwyczaj informacja, którą chcemy dzielić się z całym internetem – z tego względu warto zastanowić się nad ukryciem adresu IP, aby zwiększyć swoją prywatność. Dodatkowo w pewnych sytuacjach dostęp do interesujących nas treści może być zablokowany na danym adresie IP. Można to zrobić na wiele sposobów. Niektóre z metod potrafią całkowicie zaszyfrować taką informację, inne zamaskować, a pozostałe – zmienić adres na tymczasowy. Zależnie od rodzaju połączenia można także po prostu zresetować router lub ponownie połączyć się z siecią w celu uzyskania nowego adresu IP. Jakie sposoby pozwolą cieszyć się zwiększonym poziomem bezpieczeństwa w internecie? Sieć mobilna Przeglądając internet z poziomu smartfona czy innego urządzenia mobilnego, zazwyczaj nie mamy stałego IP. Operator „wypożycza” konkretne adresy na pewien okres, który zwykle nie przekracza 48 godzin. Co więcej, w przypadku całkowitego rozłączenia z siecią i ponownego połączenia również powinniśmy otrzymać nowy adres. Warto mieć jednak na uwadze, że historia IP przypisanych do danego urządzenia zwykle jest zapisywana, choć znajduje ona zastosowanie głównie w kontekście czynności sądowych. Publiczne Wi-Fi Dostępne publicznie sieci Wi-Fi działają na podobnej zasadzie – adresy są przypisywane tymczasowo. Korzystanie z takiego połączenia pozwoli zatem na korzystanie za każdym razem z innego IP. Mimo tego musimy w tym przypadku zachować pewną ostrożność, szczególnie w przypadku punktów dostępu bez hasła. Do tego typu sieci dostęp może mieć każdy – z odpowiednimi narzędziami łatwo będzie przechwycić nasze dane. Serwer proxy – przesłanie ruchu przez inny komputer W tym przypadku komunikacja z internetem przechodzi przez serwer proxy przed dotarciem do docelowej strony. Witryna lub usługa otrzymująca żądanie nie widzi zatem naszego adresu IP – zamiast niego pojawia się adres serwera. W ten sposób możemy skorzystać ze stałego lub tymczasowego IP, by przykryć „tożsamość” własnego urządzenia. Dodatkowo, jeżeli dana strona znajduje się w tymczasowej pamięci serwera, możemy liczyć na szybsze ładowanie. Tego typu rozwiązania zazwyczaj nie idą jednak w parze z szyfrowaniem, które może znacznie zwiększyć bezpieczeństwo w sieci. Wirtualna sieć prywatna, czyli VPN Sieci tego rodzaju znajdują wiele zastosowań – jednym z nich jest ochrona prywatności użytkowników internetu. Podstawowe zasady działania są bardzo podobne jak w przypadku proxy, jednak usługi VPN oferują także szyfrowanie. Kolejną przewagą nad proxy jest bardziej uniwersalne działanie – gdy korzystamy z nieszyfrowanego proxy, witryny mogą wykryć taki rodzaj połączenia i zablokować treść. Zarówno z pomocą proxy, jak i VPN możemy ominąć między innymi blokady lokalizacyjne i zmienić adres IP, jednak wirtualna sieć prywatna zapewnia znacznie więcej zabezpieczeń i wyższy poziom ochrony danych. Jak wybrać najlepszy VPN? Firm oferujących takie serwisy jest naprawdę sporo – warto sprawdzić dostępne opcje, a przede wszystkim zapoznać się z opiniami ekspertów od cyberbezpieczeństwa oraz samych użytkowników. Korzystanie z VPN może kosztować od kilku do kilkudziesięciu złotych miesięcznie. Istnieją także darmowe propozycje, jednak ich funkcje mogą być ograniczone, a ponadto takie rozwiązania najczęściej wiążą się ze słabszymi zabezpieczeniami. Przeglądarka Tor Z wykorzystaniem protokołu Tor oraz tzw. trasowania cebulowego możemy bezpiecznie przeglądać zarówno zwykłe strony, jak i te dostępne tylko w obrębie sieci Tor. Musimy przy tym liczyć się z niższą prędkością przesyłu danych ze względu na bardziej skomplikowany ruch sieciowy, jednak poziom anonimowości przy takim rozwiązaniu jest bardzo wysoki. Ukryty zostaje nie tylko adres IP, lecz także praktycznie wszystkie informacje o użytkowniku. Poszczególne żądania są szyfrowane warstwowo, a kolejne węzły sieci odczytują informacje warstwa po warstwie. W ten sposób docelowy punkt ma dostęp do danych dotyczących wyłącznie ostatniego routera na trasie. Nie jest to jednak rozwiązanie gwarantujące stuprocentowe bezpieczeństwo – choć dotarcie do danych użytkownika jest znacznie utrudnione, istnieją narzędzia i mechanizmy pozwalające na złamanie przynajmniej części zabezpieczeń. Więcej: https://www.dobryvpn.pl/ « powrót do artykułu
  6. Zaprojektowany przez Wojciecha Samołyka kolekcjonerski gramofon Oscar wzbogaci zbiory powstającej łódzkiej Mediateki. Gramofon zaprezentowano na konferencji prasowej w Bibliotece Wolność. Mediateka będzie jedyną instytucją publiczną z takim sprzętem; może się nim pochwalić kilku prywatnych kolekcjonerów na świecie. Oscar jest wart kilkadziesiąt tysięcy złotych. Same materiały, z których go wykonano, kosztują ok. 30 tys. zł. Wojciech Samołyk - z wykształcenia architekt - jest zafascynowany brazylijskim architektem Oscarem Niemeyerem. Dizajn gramofonu to swego rodzaju hołd dla tego twórcy i jego superprojektu budynku parlamentu z modernistycznego miasta Brasília. W pewnym momencie, widząc ten obiekt na zdjęciach z lotu ptaka, zrozumiałem, że układ form stworzony przez Niemeyera to jest także gramofon! Postanowiłem oddać hołd mojemu mistrzowi, realizując jego słynne dzieło jako "Tribute to Oscar Niemeyer" - w postaci gramofonu Tentogra Oscar - powiedział twórca marki Tentogra w wywiadzie udzielonym Wojciechowi Pacule z magazynu High Fidelity. Wg Samołyka, hipernowoczesna konstrukcja Mediateki także łączy się z projektem Brazylijczyka. We wpisie na witrynie firmowej Samołyk przyznał, że skonstruowanie gramofonu Oscar było jego idée fixe; prace nad nim trwały ponad rok. Samołyk, absolwent Politechniki Łódzkiej, już wcześniej, bo na przełomie wieków, próbował potraktować budowę gramofonu podobnie jak projekt architektoniczny. Niestety, wtedy nie było jeszcze możliwości technicznych, trudno było zdobyć odpowiednie komponenty. Napęd Oscara zasilany jest wyłącznie baterią, po to by uzyskać jak najbardziej stabilne obroty - daje to znaczącą różnicę w jakości dźwięku. Waga gramofonu ze stolikiem wynosi ~100 kg. Fundatorem sprzętu, który za kilka miesięcy trafi do Mediateki, jest Henryk Ulacha, prezes łódzkiej firmy Varitex. Mediateka, która powstaje przy ul. Moniuszki 5, ma być jedną z filii Biblioteki Miejskiej w Łodzi. Dagmara Śmigielska zapowiedziała, że w zbiorach płyt Mediateki znajdą się pozycje z polską i zagraniczną muzyką rockową, jazzową czy klasyczną - od lat 50. po czasy współczesne. Przed przekazaniem do Mediateki Oscar postoi w honorowym miejscu w bibliotece przy placu Wolności. « powrót do artykułu
  7. Norwegowie i Szwedzi doprowadzili do całkowitej zagłady żyjącej na wolności rodzimej populacji wilka. Wilki, żyjące obecnie w obu krajach, to populacja fińska. I jej grozi zagłada w wyniku chowu wsobnego. Ostatni w Norwegii wolny wilk zginął około roku 1970. Pierwotna norwesko-szwedzka populacja wilków prawdopodobnie nie pozostawiła po sobie żadnego śladu w genomie współczesnych wilków żyjących w Norwegii i Szwecji, mówi Hans Stenøien, dyrektor Muzeum Uniwersyteckiego Norweskiego Uniwersytetu Nauki i Technologii (NTNU). Jeszcze do niedawna mogliśmy się łudzić, że około 400 wilków żyjących na pograniczu szwedzko-norweskim to pozostałość lokalnej populacji, która jakimś cudem uszła z życiem przed myśliwymi. Jednak najnowsze badania genetyczne rozwiały wszelkie wątpliwości. Wilki zamieszkujące Norwegię i Szwecję najprawdopodobniej pochodzą od wilków, które emigrowały tutaj z Finlandii, mówi profesor Stenøien. Przeprowadziliśmy największe na świecie badania genetyczne wilków, dodaje. Uczony nie wyklucza, że w ogrodach zoologicznych poza Norwegią można znaleźć oryginalne norwesko-szwedzkie wilki.Jednak nie mają one już nic wspólnego z tymi, które żyją na terenie obu krajów. Wilk pojawił się w Norwegii około 12 000 lat temu. Ludzie wytępili lokalną populację około 1970 roku. Co interesujące, obecna populacja norwesko-szwedzka różni się od fińskiej. Jednak nie na tyle, by mówić tutaj o osobnych populacjach. Nie znaleźliśmy żadnej wskazówki na istnienie jakiejś specjalnej unikatowej cechy adaptacyjnej u tych wilków, mówią badacze. Przyczyna różnicy jest bardzo prozaiczna. Jest nią chów wsobny. Populacja żyjąca w Norwegii i Szwecji jest bardzo mała, z ograniczonym dopływem genów z zewnątrz. To najprawdopodobniej oznacza, że pochodzi ona od bardzo małej liczby zwierząt, które przybyły z Finlandii. Małe zróżnicowanie genetyczne oznacza zaś, że wszelkie wady łatwiej rozpowszechniaj się w takiej populacji. Brak różnorodności powoduje, że wilki te są bardziej podane na różne choroby i dziedziczenie wad genetycznych, dodaje Stenøien. Projekt badań nad norweskimi wilkami rozpoczął się przed pięcioma laty na zamówienie Stortingu, norweskiego parlamentu. Jest on prowadzony przez NTNU we współpracy z Uniwersytetem w Kopenhadze. Badacze mieli do dyspozycji materiał genetyczny od ponad 1800 wilków z całego świata, przede wszystkim z Europy. Około 500 próbek nie było wystarczająco dobrej jakości. Badania oparto więc na około 1300 próbkach. Naukowcy porównywali całe genomy zwierząt. Dodatkowym spostrzeżeniem, obok wytępienia przez ludzi oryginalnej populacji norwesko-szwedzkiej, jest stwierdzenie, że obecnie zamieszkująca tam zwierzęta mogą stanowić najczystszą pod względem genetycznym populację wilka na świecie. Uczeni przeanalizowali bowiem próbki pobrane od 56 ras psów, by zbadać, jak wiele psiej domieszki jest w norwesko-szwedzkim wilku. Wilki w naszym kraju są wśród posiadających najmniejszą domieszkę psich genów. A może nawet są najczystszą na świecie wilczą populacją, dodaje Stenøien. Kwestia wilków wywołuje w Norwegii wiele emocji. Wszyscy pamiętają bowiem ciągnące się przez wiele dekad kłótnie, gdy pojawiła się plotka, jakoby wilki z ogrodów zoologicznych zostały wypuszczone na wolność. Dlatego Stenøien, pytany o możliwość wzbogacenia puli genetycznej obecnej populacji norwesko-szwedzkiej wilkami oryginalnej populacji mieszkającymi obecnie w ogrodach zoologicznych, w ogóle nie chce o tym rozmawiać. Mówi jedynie, że takie wzbogacenie byłoby możliwe, jednak wymagałoby to dużych zasobów, wiele pracy i byłoby kosztowne. Jednak trudno wyobrazić sobie awantury, jakie przetoczyłyby się przez Norwegię, gdyby z ogrodów zoologicznych rzeczywiście przywieziono wilki i wypuszczono je na wolność. « powrót do artykułu
  8. Łoś to jeden z największych lądowych ssaków Europy, jednak dotychczas niewiele było wiadomo na temat użytkowania przestrzeni przez te zwierzęta na południowym skraju zasięgu ich występowania. Prowadzone w ostatnich latach badania w rejonie Biebrzy i na Polesiu pozwoliły sprawdzić, jak dużych obszarów potrzebują do życia łosie i co wpływa na wielkość użytkowanych przez nie areałów. Łosie w rejonie Biebrzy i na Polesiu śledzone były w latach 2012-2018. Naukowcy z Instytutu Biologii Ssaków PAN w Białowieży, Uniwersytetu w Białymstoku i Uniwersytetu Przyrodniczego w Lublinie przeanalizowali blisko 560 tys. lokalizacji łosi noszących obroże GPS. Urządzenia te namierzały pozycję łosi co godzinę, dzięki czemu można było szczegółowo poznać trasy wędrówki łosi oraz obszary, jakie użytkują one w różnych momentach roku. Wielkość sezonowych areałów wykorzystywanych przez łosie była bardzo zmienna i wahała się od kilku do ponad 130 kilometrów kwadratowych - informują autorzy badania w materiale przesłanym PAP. Autorzy badania zauważają, że część łosi nie zajmowała stacjonarnych areałów i prowadziła koczowniczy tryb życia. Okazało się, że sposób użytkowania przestrzeni i wielkość sezonowych areałów w największym stopniu zależy od strategii migracyjnych łosi. Osobniki migrujące, które latem i zimą zajmują różne środowiska bardziej dostosowane do ich sezonowych potrzeb, użytkują bardziej stacjonarne i istotnie mniejsze areały (średnio 9,7 km2) niż łosie, które nie wykazują migracji sezonowych (średnio 14,3 km2). Aby zaspokoić swoje potrzeby pokarmowe, osiadłe łosie muszą użytkować większe areały, które obejmują mozaikę różnych środowisk, oferującą pokarm zarówno latem, jak i zimą. Ponadto stwierdziliśmy, że latem łosie były istotnie bardziej stacjonarne i użytkowały mniejsze areały (średnio 9,0 km2) niż zimą (średnio 15,9 km2). Wynika to zapewne z większego zróżnicowania, dostępności i odnawialności pokarmu latem niż zimą, gdy łosie żerują głównie w ubogich borach sosnowych – informuje jeden z prowadzących badania, dr hab. Rafał Kowalczyk z IBS PAN w Białowieży. Wielkość areałów zależała też od płci zwierząt. Samce użytkowały dwukrotnie większe sezonowe areały (średnio 19,6 km2) niż samice (9,6 km2). Może to wynikać z dymorfizmu płciowego i większych potrzeb pokarmowych i energetycznych samców, charakteryzujących się większymi rozmiarami ciała – dodaje dr Kowalczyk. Co ciekawe, wykazaliśmy również wysokie zróżnicowanie wielkości areałów łosi zamieszkujących te same obszary. Może to wskazywać, że dla sposobu użytkowania przestrzeni i decyzji dotyczących żerowania, poza czynnikami środowiskowymi, znaczenie ma też osobowość poszczególnych łosi – precyzuje dr Tomasz Borowik z IBS PAN, który analizował dane. Badania pokazały, że łosie dopasowują użytkowanie przestrzeni i wielkość sezonowych areałów do rozmieszczenia oraz dostępności zasobów w czasie i przestrzeni. Biorąc pod uwagę silną zależność wielkości areałów łosi od struktury środowiska, wszelkie zmiany klimatu i związane z tym zmiany środowiskowe będą również wpływać na strategie migracyjne i sposób użytkowania przestrzeni przez łosie. Może to mieć skutki dla dynamiki populacji łosi oraz poziomu konfliktów powodowanych przez te duże zwierzęta. Wyniki swoich badań naukowcy przedstawili w Behavioral Ecology and Sociobiology. « powrót do artykułu
  9. Badania prowadzone m.in. przez Cleveland Clinic sugerują, że sildenafil, lek stosowany w leczeniu zaburzeń erekcji (Viagra) i pierwotnego nadciśnienia płucnego (Revatio), może być obiecującym środkiem do zapobiegania i leczenia choroby Alzheimera. Grupa badawcza, na czele której stał Feixiong Cheng z Cleveland Clinic Genomic Medicine Institute wykorzystała metody obliczeniowe do przeanalizowania już zatwierdzonych leków, które mogłyby być przydatne w walce z chorobą alzheimera. Analizowano też dane ponad 7 milionów pacjentów. Okazało się, że wśród wszystkich sprawdzonych w ten sposób leków używanie sildenafilu wiąże się z 69-procentowym spadkiem ryzyka rozwoju choroby Alzheimera. To zaś oznacza, że warto przeprowadzić badania kliniczne pod kątem wykorzystania sildenafilu w leczeniu alzheimera. Nasze badania wykazały jedynie istnienie korelacji pomiędzy używaniem sildenafilu a zmniejszoną liczbą przypadków alzheimera. Dlatego też planujemy obecnie badania mechanistyczne oraz II fazę randomizowanych testów klinicznych, których celem będzie sprawdzenie istnienia związku przyczynowo-skutkowego oraz ewentualnych korzyści z przyjmowania sildenafilu przez osoby z chorobą Alzheimera. Uważamy też, że nasza metoda może zostać wykorzystana do poszukiwania leków na inne choroby neurodegeneracyjne, w tym na chorobę Parkinsona czy stwardnienie zanikowe boczne, oświadczył Cheng. Wykorzystanie już zatwierdzonych leków do walki z kolejnymi chorobami to bardzo dobra alternatywa dla czasochłonnego i kosztownego procesu odkrywania nowych leków. Naukowcy przyjrzeli się ponad 1600 lekom zatwierdzonym przez FDA. W przypadku takich leków nie tylko znamy zagrożenia związane z ich stosowaniem, ale możemy też prześledzić skutki ich używania na olbrzymich grupach pacjentów stosujących je na co dzień. Analiza takich danych może wskazać, czy któryś z leków nie ma wpływu na choroby inne niż te, na które jest stosowany. Po tym, jak wstępne analizy wskazały na potencjalne zalety sildenafilu, naukowcy wzięli pod lupę ponad 7 milionów Amerykanów, poszukując związku pomiędzy używaniem tego środka a chorobą Alzheimera. Okazało się, że w grupie, która używała sildenafilu przez ponad 6 lat występuje o 69% mniej przypadków choroby Alzheimera niż w grupie, która tego środka nie używała. Porównano też używanie sildenafilu z innymi lekami i okazało się, że u pacjentów używających losartanu sildenafil zmniejsza ryzyko Alzheimera o 55%, u korzystających z metforminy o 63%, o 65% u tych, którzy zażywają diltiazem i 64% u przyjmujących glimepiryd. Bardzo ważny jest fakt, że użycie sildenafilu może zmniejszać ryzyko wystąpienia choroby Alzheimera u osób a chorobą wieńcową, nadciśnieniem i cukrzycą typu II. Te wszystkie schorzenia zwiększają ryzyko zgonu zarówno z powodu alzheimera jak ogólne ryzyko zgonu, zaznacza Cheng. Uczeni stworzyli też model choroby Alzheimera, wykorzystując w tym celu komórki macierzyste pacjentów. Okazało się, że pod wpływem sildenafilu komórki mózgu szybciej się rozwijały, hiperfosforylacja białka tau ulegała zmniejszeniu. Więcej na ten temat można przeczytać w artykule opublikowanym na łamach Nature Aging. « powrót do artykułu
  10. Gdy w 2017 roku specjaliści z Albion Archeology odkryli dużą, nieznaną wcześniej osadę rzymską, nie wyróżniała się ona niczym szczególnym. Obok niej, czego również można było się spodziewać, znajdował się cmentarz. Dopiero dalsze wykopaliska pokazały, że trafiono na wyjątkowe miejsce. Jedna z pochowanych tam osób została bowiem ukrzyżowana. Miejscowość Fenstanton leży przy dawnej Via Devana, drodze łączącej rzymskie miasta w Cambridge i Godmanchester. W regionie tym istniało wiele rzymskich osad, jednak ta wydaje się szczególnie istotna. Jej powierzchnia w czasach rzymskich wynosiła co najmniej 6 hektarów i być może znajdowało się tam skrzyżowanie dróg. O jej znaczeniu może świadczyć też fakt,że odkryto tam szczątki wczesnego anglosaskiego budynku typu grubhouse, o podłodze wpuszczonej w ziemię. To pokazuje, że była zasiedlona również po czasach rzymskich. Nie niewielkim rzymskim cmentarzu znaleziono zwłoki 40 dorosłych i 5 dzieci. Większość grobów pochodzi z IV wieku, a ich zawartość została niedawno szczegółowo przeanalizowana. Większość ze zmarłych była w złym stanie zdrowia, trapiły ich choroby zębów, malaria, na szkieletach widoczne są ślady urazów, w tym złamań. Najbardziej interesujący okazał się jednak szkielet oznaczony numerem 4926. Jego kość piętową poziomo przebijał 5-centymetrowy żelazny gwóźdź. Badania wykazały, że szkielet należał do mężczyzny w wieku 25–35 lat o typowym dla ówczesnych czasów wzroście 170 cm. Datowanie radiowęglowe wykazało, że zmarł pomiędzy rokiem 130 a 360. Szkielet 4926 został pochowany w otoczeniu 12 żelaznych gwoździ oraz drewnianej struktury. Naukowcy sądzą, że był to rodzaj drewnianego panelu, na którym jego ciało położono po zdjęciu z krzyża. Na szkielecie widoczne są urazy, których doznał przed śmiercią. Mężczyzna miał złamanych 6 żeber, prawdopodobnie od uderzenia miecza, a złamania dopiero zaczęły się goić. Na kościach nóg widać ślady infekcji lub zapalenia, kości piszczelowe są cieńsze niż być powinny. To znak, że przez dłuższy czas był związany lub skuty. Gwóźdź 13., który tkwił w pięcie, odkryto dopiero w laboratorium, podczas mycia szczątków. Obok na kości widoczne jest wgłębienie, świadczące o tym, że za pierwszym razem nie udało się go przybić do krzyża. Kara ukrzyżowania była powszechnie stosowana w świecie rzymskim. Jednak dotychczas znaleziono niezwykle mało kości noszących dowody na jej stosowanie. Nie zawsze bowiem stosowano gwoździe. Zwykle ofiarę przywiązywano do krzyża, a ofiary nie mogły liczyć na zwykły pogrzeb. Z kolei tam, gdzie używano gwoździ, zwykle były one po egzekucji wyjmowane z ciała i wykorzystywane ponownie, wyrzucane lub wykorzystywane jako amulety. Tutaj mamy szczęśliwe dla nas połączenie dobrego zachowania się zwłok oraz pozostawionego w ciele gwoździa. To pozwoliło mi zbadać ten unikatowy przykład ukrzyżowania, mówi doktor Corine Duhing z University of Cambridge. Uczona mówi, że to najlepiej na świecie zachowany przykład ukrzyżowania w czasach rzymskich. To pokazuje, że nawet w tak małej osadzie na krańcach imperium nie można było uniknąć tej barbarzyńskiej kary, dodaje uczona. Szczegółowe wyniki wykopalisk w Fenstaton zostaną opublikowane w przyszłym roku. Oprócz ludzkich szczątków znaleziono tam wiele artefaktów, w tym emaliowane brosze, dużą liczbę monet, zdobioną ceramikę oraz dużą liczbę kości zwierzęcych. Nie były one powiązane z żadnym ze zmarłych. Pozostałości dużych budynków i drogi pokazują, że była to ważna, zamożna osada. Niewykluczone, że była ona utrzymywana jako miejsce odpoczynku dla podróżnych. Stosowania kary ukrzyżowania zabronił dopiero Konstantyn Wielki w 337 roku. Jednak już wcześniej, bo w 212 zakazano stosowania tej kary w odniesieniu do obywateli. Krzyżowani mogli być zaś niewolnicy. Nie wiemy, czy ukrzyżowany mężczyzna był niewolnikiem czy tylko był przez jakiś czas więziony przed śmiercią. Jednak mimo to został w sposób standardowy pochowany na lokalnym cmentarzu. Być może – spekulują archeolodzy – pomimo zakazu, kara ukrzyżowania wciąż była stosowana na dzikich rubieżach Imperium. « powrót do artykułu
  11. Ludzie, Ziemia czy gwiazdy pojawili się dlatego, że w pierwszej sekundy istnienia wszechświata wytwarzane było więcej materii niż antymaterii. Ta asymetria była niezwykle mała. Na każde 10 miliardów cząstek antymaterii pojawiało się 10 miliardów + 1 cząstka materii. Ta minimalna nierównowaga doprowadziła do stworzenia materialnego wszechświata, a fenomenu tego współczesna fizyka nie potrafi wyjaśnić. Z teorii wynika bowiem, że powinna powstać dokładnie taka sama liczba cząstek materii i antymaterii. Grupa fizyków-teoretyków stwierdziła właśnie, że nie można wykluczyć, iż w naszych możliwościach leży wykrycie nietopologicznych solitonów Q-balls, a ich wykrycie pozwoliłoby odpowiedzieć na pytanie, dlaczego po Wielkim Wybuchu pojawiło się więcej materii niż antymaterii. Obecnie fizycy uważają, że asymetria materii i antymaterii pojawiła się w pierwszej sekundzie po Wielkim Wybuchu, a w jej czasie rodzący się wszechświat gwałtownie zwiększył swoje wymiary. Jednak przetestowanie teorii o inflacji kosmologicznej jest niezwykle trudne. Żeby ją sprawdzić musielibyśmy wykorzystać olbrzymie akceleratory cząstek i dostarczyć im więcej energii, niż jesteśmy w stanie wyprodukować. Jednak amerykańsko-japoński zespół naukowy, w skład którego wchodzą m.in. specjaliści z japońskiego Kavli Institute for the Physics and Mathematics of the Universe (Kavli IPMU) i Uniwersytetu Kalifornijskiego w Los Angeles (UCLA) uważają, że do przetestowania tej teorii można wykorzystać nietopologiczne solitony Q-ball. Jedna z teorii dotyczących nierównowagi materii i antymaterii mówi bowiem, że pojawiła się ona w wyniku złożonego procesu tzw. bariogenezy Afflecka-Dine'a. To w jej przebiegu miały pojawić się Q-balle. Profesor Graham White, główny autor badań z Kavli IPMU wyjaśnia, czym jest Q-ball. Mówi, że jest bozonem, jak bozon Higgsa. Bozon Higgsa pojawia się, gdy pole Higgsa zostaje wzbudzone. Jednak w polu Higgsa mogą pojawiać się też inne elementy, jak grudki. Jeśli mamy pole bardzo podobne do pola Higgsa, które ma pewien ładunek, nie ładunek elektryczny, ale jakiś ładunek, wówczas taka grudka ma ładunek taki, jak jedna cząstka. Jako, że ładunek nie może po prostu zniknąć, całe pole musi „zdecydować” czy tworzy grudki czy cząstki. Jeśli utworzenie grudek będzie wymagało mniej energii, będą powstawały grudki. Łączące się ze sobą grudki stworzą Q-ball, mówi. Często mówimy, że takie Q-balle istnieją przez jakiś czas. W miarę rozszerzania się wszechświata zanikają one wolniej niż promieniowanie tła, w końcu większość energii wszechświata skupia się w Q-ballach. W międzyczasie pojawiają się niewielkie fluktuacje w gęstości promieniowania, które skupiają się tam, gdzie dominują Q-balle. Gdy zaś Q-ball się rozpada, jest to zjawisko tak gwałtowne, że pojawiają się fale grawitacyjne. Możemy je wykryć w nadchodzących dekadach. Piękno poszukiwań fal grawitacyjnych polega na tym, że wszechświat jest całkowicie dla nich przezroczysty, wędrują więc do jego początku, mówi White. Zdaniem teoretyków, generowane przez znikające Q-balle fale mają odpowiednie charakterystyki, by można je było zarejestrować za pomocą standardowych wykrywaczy fal grawitacyjnych. Szczegóły badań zostały opublikowane w serwisie arXiv. « powrót do artykułu
  12. Jedną z najtrudniejszych umiejętności językowych jest rozumienie składni zdań złożonych. W 2019 roku naukowcy zauważyli, że istnieje korelacja pomiędzy wysokimi umiejętnościami używania narzędzi, a zdolnością do rozumienia złożonej składni. Szwedzko-francuski zespół naukowy informuje, że obie te umiejętności – sprawnego posługiwania się narzędziami oraz złożoną składnią – korzystają z tych samych zasobów neurologicznych w tym samym regionie mózgu. To jednak nie wszystko. Okazało się, że rozwijanie jednej z tych umiejętności wpływa na drugą. Uczeni z francuskiego Narodowego Instytutu Zdrowia i Badań Medycznych (Inserm), Narodowego Centrum Badań Naukowych (CNRS), Université Claude Bernard Lyon 1, Université Lumière Lyon 2 i Karolinska Institutet zauważyli, że trening w posługiwaniu się narzędziami poprawia zdolność rozumienia złożonych zdań. I na odwrót. Jeśli ćwiczymy rozumienie złożonych zdań, poprawiają się nasze umiejętności posługiwania się narzędziami. Odkrycie to można będzie wykorzystać podczas rehabilitacji osób, które częściowo utraciły zdolności językowe. Przez długi czas uważano, że używanie języka to niezwykle złożona umiejętność, która wymaga wyspecjalizowanych obszarów mózgu. Jednak w ostatnich latach pogląd ten ulega zmianie. Kolejne badania wskazują, że ośrodki kontroli niektórych funkcji językowych, na przykład odpowiadające za rozumienie słów, są też zaangażowane w kontrolowanie funkcji motorycznych. Jednak badania obrazowe nie dostarczały dowodów na istnienie związku pomiędzy używaniem języka i narzędzi. Z drugiej jednak strony badania paloneurobiologiczne wykazały, że obszary mózgu odpowiedzialne za posługiwanie się językiem rozwijały się u naszych przodków w okresach większego rozwoju technologicznego, gdy wśród naszych praszczurów rozpowszechniało się użycie narzędzi. Naukowcy, analizujący dostępne dane, zaczęli się zastanawiać czy jest możliwe, by używanie narzędzi, operowanie którymi wymaga wykonywania złożonych ruchów, było kontrolowane przez te same obszary mózgu co używanie funkcji językowych. W 2019 roku Claudio Brozzoli z Inserm i Alice C. Roy z CNRS wykazali, że osoby, które szczególnie dobrze posługują się narzędziami, zwykle też lepiej posługują się złożoną składnią zdań w języku szwedzkim. Naukowcy postanowili bliżej przyjrzeć się temu zjawisku i zaplanowali serię eksperymentów, w czasie których wykorzystano m.in. rezonans magnetyczny. Badanych proszono o wykonanie testów związanych z użyciem 30-centymetrowych szczypiec oraz zdań złożonych w języku francuskim. Dzięki temu uczeni zidentyfikowali obszary mózgu odpowiedzialne za wykonywanie każdego z tych zadań oraz wspólnych dla obu zadań. Jako pierwsi stwierdzili, że używanie narzędzi i złożonej składni aktywuje ten sam obszar w jądrze podstawnym w mózgu. Wówczas zaczęli zastanawiać się, czy ćwicząc jedną z tych umiejętności, można by wpływać na drugą. Uczestników badań poproszono więc o wypełnienie testów rozumienia złożonych zdań. Testy takie wypełniali 30 minut przed i 30 minut po ćwiczeniu ze szczypcami. Ćwiczenie to polegało na użyciu dużych szczypiec do umieszczenia niewielkich kołków w otworach odpowiadających im kształtem, ale o różnej orientacji. Przed i po takim ćwiczeniu porównywano, jak uczestnicy badań radzą sobie z rozumieniem prostszego i bardziej złożonego zdania. Okazało się, że po ćwiczeniu ze szczypcami badani lepiej radzili sobie ze zrozumieniem trudniejszych zdań. Z kolei w grupie kontrolnej, która używała dłoni do wkładania kołków w otworach, nie zauważono tego typu poprawy rozumienia zdań. Teraz naukowcy opracowują protokoły rehabilitacji osób, które utraciły część umiejętności językowych, ale zachowały zdolności motoryczne. Jednocześnie zauważają, że ich badania lepiej pomagają nam zrozumieć ewolucję H. sapiens. Gdy nasi przodkowie zaczęli wytwarzać i używać narzędzi, znacznie zmieniło ich to mózg i wpłynęło na zdolności poznawcze, co mogło doprowadzić do pojawienia się innych funkcji, jak zdolności językowe, stwierdzają naukowcy. « powrót do artykułu
  13. Trwa renowacja ostatniego fortepianu należącego do Fryderyka Chopina - instrumentu marki Pleyel z 1848 roku. Zaplanowano ją na 3-12 grudnia. Prace prowadzi zespół Paula McNulty'ego. Pokazy konserwatorskie (w ramach biletu do Muzeum Fryderyka Chopina) można oglądać od 7 do 12 grudnia. Historia instrumentu Chopin dostał najnowszy instrument z paryskiej wytwórni Camille'a Pleyela pod koniec listopada 1848 r. Jak podkreślono w komunikacie Narodowego Instytutu Fryderyka Chopina (NIFC), fortepian o numerze seryjnym 14810 znajdował się w dwóch ostatnich mieszkaniach Chopina i był ostatnim, na którym kompozytor grał i tworzył. Po śmierci Chopina instrument został zakupiony przez jego uczennicę Jane Stirling, a następnie podarowany przez nią siostrze Fryderyka, Ludwice Jędrzejewiczowej. Przetransportowany drogą morską znalazł się w Warszawie w sierpniu 1850 roku. Co ciekawe, w skrzyni instrumentu nadal znajduje się lakowa pieczęć carskiego urzędu celnego. Widać także dedykację autorstwa Jane Stirling "pour Louise" (dla Ludwiki). Dzieci i wnuki Ludwiki dbały o cenną pamiątkę. W 1924 r. została ona sprzedana Muzeum Narodowemu w Warszawie. Fortepian wystawiano tam do wybuchu powstania warszawskiego. Po zakończeniu powstania Niemcy wywieźli go do Austrii. Instrument wrócił do Warszawy w kwietniu 1946 r. W latach 50. przez pewien czas był eksponowany w Żelazowej Woli, a w 1958 roku został przekazany przez Muzeum Narodowe w depozyt, a później na własność Towarzystwu im. Fryderyka Chopina i przetransportowany do Pałacu Ostrogskich – siedziby warszawskiego Muzeum Chopina. Od 2005 roku jest depozytem w Narodowym Instytucie Fryderyka Chopina. Renowacje Pod koniec lat 50. przeprowadzono pierwszą renowację instrumentu. Podczas tego remontu wymieniono struny, kołki i okleinę młotków, a także polakierowano skrzynię. Ponieważ struny zmieniono na wykonane ze stali wysokowęglowej o silnym naciągu, zmieniło to oryginalną barwę brzmienia fortepianu; eksperci obawiali się również negatywnego wpływu tego zabiegu na kondycję całego instrumentu w dłuższej perspektywie. Przed 3 laty NIFC zlecił szczegółowe badania fortepianu. Laboratorium Analiz i Nieniszczących Badań Obiektów Zabytkowych LANBOZ przeprowadziło m.in. skanowanie i analizy chemiczne oraz wykonało zdjęcia RTG. Oprócz tego oględzinami fortepianu zajął się prof. Benjamin Vogel, instrumentoznawca w zakresie budownictwa fortepianów i lutnictwa, który współpracuje z wieloma muzeami w kraju i za granicą jako ekspert od zabytkowych instrumentów. Okazało się, że konieczna jest renowacja. Amerykański specjalista Paul McNulty uznał, że najważniejsza jest regulacja mechaniki i wymiana strun na bliższe pierwowzorowi. Dzięki dobremu stanowi zachowania zdecydowanej większości elementów (fortepian przez prawie sto lat, poza nielicznymi wyjątkami, nie był używany w celach wykonawczych, a jedynie eksponowany jako obiekt muzealny) istnieje realna szansa na pełne przywrócenie walorów instrumentu, a w szczególności jego oryginalnego brzmienia. « powrót do artykułu
  14. W ubiegłym roku donosiliśmy, że po raz pierwszy od ponad 100 lat norwescy archeolodzy wydobyli okręt wikingów, na którym pochowano władcę. Teraz Norweski Instytut Badań nad Dziedzictwem Kulturowym (NIKU) informuje, że w pobliżu okrętu znajduje się kilka długich domów, w tym jeden z największych, jakie kiedykolwiek znaleziono w Skandynawii. Odkrycia dokonano w Gjellestad, miejscowości o dużym znaczeniu w epoce żelaza i epoce wikingów. Odkrycie tych długich domów potwierdza, że Gjellestad było ważnym ośrodkiem, mówi doktorant Lars Gustavsen z NIKU. Dotychczas za pomocą georadaru zidentyfikowano pięć długich domów, z których jeden mierzył aż 60 metrów długości i 15 szerokości. Tymczasem długość typowego długiego domu z tego okresu wynosiła 20–30 metrów. Ten nowo odkryty był więc olbrzymi. Jako, że wielkość domu była powiązana z zamożnością właściciela, musiał w nim mieszkać ktoś znaczny. Nie wiemy, ile lat liczą sobie te domy i jakie funkcje pełniły. Wykopaliska i datowanie pozwolą nam odpowiedzieć na te pytania, stwierdzili archeolodzy. Oprócz domów odkryto też znaleziono, że w pobliżu znajdowały się kurhany, które jednak zostały zniszczone podczas prac polowych w XIX wieku. Najnowszego odkrycia dokonano w ramach projektu „Viking Nativity: Gjellestad Across Boarders”. Jego celem jest określenia historii rozwoju Gjellestad na przestrzeni całej epoki żelaza. Już przed trzema laty, gdy po raz pierwszy archeolodzy wpadli na trop okrętu w kurhanie, wiadomo było, że jest to zapowiedzą kolejnych odkryć. Pochówki na okrętach nigdy bowiem nie występują osobno. Z czasem przypuszczenia się potwierdziły. Odkrycie kurhanów nie było tak naprawdę zaskoczeniem, gdyż kurhany są tez w okolicznych lasach. Ponadto już wcześniej na polecenie gminy Viken prowadzono tutaj badania i dokonano odkryć wskazujących, że powinno być więcej kurhanów, mówi  Gustavsen. W ciągu kilku najbliższych lat prawdopodobnie dowiemy się więcej o związkach pomiędzy długimi domami, wrakiem i znaczeniem tego miejsca, dodaje. « powrót do artykułu
  15. Dobór odpowiednich podzespołów w komputerze ma ogromny wpływ na płynność rozgrywki czy wydajność wykonywanej pracy. Warto dowiedzieć się, które komponenty mają największe znaczenie pod tym względem. Procesor – serce komputera CPU, czyli właśnie procesor, to miejsce, w którym nieustannie przeprowadzane są obliczenia odpowiedzialne za pracę całego systemu. Przez centralną jednostkę obliczeniową przechodzą wszystkie polecenia do wykonania przez komputer. Szybkość tego podzespołu określa się na podstawie taktowania zegara, czyli liczby cykli otwierania i zamykania tranzystorów na sekundę. Wartość ta w nowych układach jest naprawdę wysoka – 1 GHz oznacza miliard cykli na sekundę, a taktowanie najnowszych procesorów może nawet przekraczać 5 GHz. Dodatkowo parametr ten jest zazwyczaj podawany w odniesieniu do jednego rdzenia, podczas gdy najpopularniejsze modele korzystają z 4, 6 lub 8 rdzeni. Liczba cykli bezpośrednio wyznacza liczbę operacji, które może wykonać CPU – wyższe taktowanie przekłada się zatem na szybsze działanie aplikacji, gier i każdego innego procesu. Wymiana procesora może dodatkowo pociągnąć za sobą konieczność zastosowania innej płyty głównej. Powodem jest obecność różnych gniazd do obsługi procesora. Intel i AMD korzystają z nieco odmiennych formatów. Co więcej, poszczególne generacje CPU zwykle wprowadzają drobne zmiany w tej kwestii. Choć płyta główna sama w sobie ma niewielki wpływ na szybkość komputera, jej konfiguracja wpływa na dobór innych komponentów, takich jak właśnie procesor czy RAM. Aby znaleźć najlepszą płytę główną dla siebie, odwiedź https://www.sferis.pl/plyty-glowne-2894/gigabyte. Chłodzenie procesora – istotna kwestia Ważną kwestią, na którą warto zwrócić uwagę, jest również chłodzenie procesora. Spora część modeli jest sprzedawanych od razu z tego typu elementem, jednak nie jest to reguła. Propozycje bez chłodzenia producenta to najczęściej najwydajniejsze modele z danej generacji, w przypadku których większość osób i tak stawia na dedykowane rozwiązania. Odpowiednie chłodzenie pozwala zapewnić, że procesor będzie w stanie pracować na wysokich obrotach bez ryzyka awarii. Zdecydowanie nie zaleca się korzystania z CPU bez żadnego chłodzenia – w takiej sytuacji wystarczy kilka sekund, by jednostka obliczeniowa uległa nieodwracalnemu zniszczeniu. Kiedy warto zainwestować w wydajną kartę graficzną? Ten podzespół odpowiada za renderowanie grafiki, a dodatkowo może wspierać obliczenia głównej jednostki. Modele od najlepszych producentów można znaleźć między innymi na https://www.sferis.pl/karty-graficzne-2889/gigabyte. Wydajna karta graficzna to wymóg przede wszystkim dla graczy i osób wykonujących intensywne prace związane z renderowaniem obrazu. Jej wpływ na szybkość komputera zależy jednak od tego, w jaki sposób korzystamy ze sprzętu. Największe zmiany odczujemy właśnie w przypadku gier i programów do obsługi wideo. Jeżeli jednak komputer służy nam przede wszystkim do przeglądania internetu i innych, mniej wymagających zadań, możemy ograniczyć wydatki, stawiając na procesor wyposażony w zintegrowaną grafikę. Nośniki danych – rodzaj napędu ma spore znaczenie W tym przypadku rozróżniamy dwa główne typy nośników: •    HDD, czyli dysk twardy – jego działanie opiera się na magnesowaniu odpowiednich części ruchomych talerzy; •    SSD, czyli napęd półprzewodnikowy – wszystkie operacje są wykonywane czysto elektronicznie, z pomocą tranzystorów. Jak wygląda różnica pomiędzy nimi w codziennym zastosowaniu? Niemal wszystkie argumenty przemawiają za SSD. Przesył danych w najnowszych modelach sięga nawet kilku gigabajtów na sekundę, podczas gdy najwydajniejsze HDD osiągają zwykle maksymalnie 600 MB/s. To sprawia, że zarówno sam system, jak i wszelkie programy oraz aplikacje będą uruchamiać się i działać o wiele szybciej. Dodatkowo SSD pracuje znacznie ciszej, zachowując przy tym wyższą wydajność energetyczną. « powrót do artykułu
  16. Bakteria wąglika atakuje ludzkość od niepamiętnych czasów. Badania przeprowadzone w Cornell College of Veterinary Medicine wykazały, że w toku ewolucji ludzie wielokrotnie nabywali większej odporności na wąglika. Doszło do tego wówczas, gdy w ich diecie w większym stopniu pojawiło się mięso przeżuwaczy czy po upowszechniania się rolnictwa. Dzięki temu Homo sapiens, przede wszystkim Europejczycy i ich potomkowie, posiada mniej receptorów umożliwiających zakażenie wąglikiem. Znaleźliśmy dowody na wieloetapową adaptację ludzi do współistnienia z wąglikiem. To najważniejsze nasze odkrycie, mówi profesor Charles Danko, który stał na czele grupy badawczej. Głównym gospodarzem wąglika są przeżuwacze, jak krowy czy owce. Zwierzęta, pożywiając się, wdychają spory wąglika znajdujące się w trawie, zarażają się i wkrótce giną od toksyn wytwarzanych przez bakterie. Z rozkładających się ciał zwierząt bakterie wracają do gleby i roślin i cykl się powtarza. Zanim Danko nie przeprowadził swoich badań, nie było jasne, jak ludzie zostali włączeni w ten cykl. Naukowcy badali ekspresję genów u wielu różnych gatunków i prowadzili badania na próbkach pobranych od ludzi i naczelnych. Okazało się, że receptor toksyny wąglika ANTXR2, który umożliwia wniknięcie toksyny do komórek, jest obecny u wielu gatunków ssaków, w tym u naczelnych. Ekspresja genu ANTXR2 jest stała na przestrzeni ponad 100 milionów lat ewolucji. Jednak okazuje się, że u ludzi doszło do olbrzymiego jej spadku. I to nas zainteresowało, mówi Danko. Na przykładzie przeprowadzonych badań dobrze widać ewolucję w praktyce. Wynika z nich bowiem, że pierwsi ludzie, którzy pojawili się w subsaharyjskiej Afryce, coraz częściej zjadali zwierzęta przeżuwające. Mieli więc większy kontakt z wąglikiem niż ich zwierzęcy przodkowie. Wąglik musiał doprowadzić do wymarcia wielu z pierwszych społeczności. Przeżyli ci ludzie, którzy posiadali naturalną odporność na wąglika, np. mieli mniej receptorów ANTXR2. Następnie naukowcy sprawdzili różne populacje pod kątem ekspresji wspomnianego genu. Wzięli pod lupę m.in. Europejczyków, Chińczyków, Japończyków i Joruba. Odkryli, że u wszystkich widoczne jest zmniejszenie ekspresji tego receptora. Jednak u Europejczyków jest ona najmniejsza. Zgadza się to z wcześniejszymi obserwacjami, z których wynikało, że Europejczycy są mniej wrażliwi na toksynę wąglika niż Azjaci czy Afrykanie. Nasze badania dowodzą, że Europejczycy dłużej niż inne populacje mają kontakt z wąglikiem, stwierdza Danko. To nabywanie odporności zgodne jest z wzorcami ludzkiej migracji i rozprzestrzeniania się rolnictwa. Jednym z przykładów takiego kontaktu jest „choroba sortowaczy wełny”. To płucna, wyjątkowo śmiercionośna odmiana wąglika, która w XIX wieku zabijała osoby sortujące wełnę. W kolejnym etapie badań Danko i jego grupa chcą m.in. zbadać inne populacje ludzkie, w tym i takie, które były historycznie bardziej izolowane, pod kątem odporności na wąglika. Mają zamiar sprawdzić, czy i w ich przypadku da się zauważyć dotychczas obserwowany wzorzec wspólnej ewolucji. Szczegóły badań znajdziemy w artykule Multiple stages of evolutionary change in anthrax toxin receptor expression in humans. « powrót do artykułu
  17. Niedawno zidentyfikowany wariant Omikron koronawirusa SARS-CoV-2 wywołał spore poruszenie wśród ekspertów. Tym, czego najbardziej obawiają się specjaliści, jest duża liczba zmian w tym wariancie. Zawiera on bowiem ponad 30 mutacji w białku S. Tym, które umożliwia wirusowi infekowanie komórek naszego organizmu. Na razie nie wiemy, czy Omikron jest bardziej zaraźliwy, czy powodowana nim choroba przebiega w inny sposób niż w przypadku wcześniejszych wariantów i czy obecnie dostępne szczepionki są równie skuteczne w jego przypadku. W RPA ukazały się właśnie wstępne wyniki badań sugerujących, że Omikron może z trzykrotnie większym prawdopodobieństwem może ponownie infekować ludzi. Wyniki tych badań nie zostały jeszcze opublikowane w recenzowanym czasopiśmie. Wydaje się, że Omikron pojawił się bardzo szybko, a specjaliści próbują zrozumieć, jak doszło do pojawienia się tak wielu mutacji w tak krótkim czasie. Jedną z możliwych dróg pojawienia się tak mocno zmutowanego wariantu jest jego wcześniejsze krążenie w izolowanej populacji, w której miał więcej możliwości zmiany niż w populacji ogólnej. Później mógł się rozprzestrzenić po poza tę populację. Alternatywnym wyjaśnieniem jest pojawienie się wielu mutacji u pojedynczej osoby. Taki scenariusz jest możliwy w przypadku osoby o osłabionym układzie odpornościowym, na przykład u nosiciela wirus HIV. RPA, gdzie po raz pierwszy odkryto wariant Omikron, ma największą na świecie populację nosicieli HIV. Mimo, że w międzyczasie zidentyfikowali starsze przypadki Omikrona w USA i Europie, scenariusza o dużej liczbie mutacji u pojedynczej osoby nie można wykluczyć. Masz układ odpornościowy składa się m.in. z komórek CD4+, które stymulują inne limfocyty T do ataku. U osób ze zdrowym układem odpornościowym limfocyty T niszczą komórki zarażone wirusem. Jednak u osób z osłabionym układem odpornościowym liczba komórek CD4+ T jest niewielka. Dlatego też może u nich dojść do długotrwałej infekcji. W trakcie jej trwania organizm nie jest jednak całkowicie bezbronny. Wytwarza on bowiem limfocyty B. Rozpoczyna się wyścig zbrojeń pomiędzy wirusem a układem odpornościowym. Atak ze strony limfocytów B jest na tyle słaby, że nie jest w stanie oczyścić organizmu z wirusa, jednak wywiera presję ewolucyjną na wirusa, który zaczyna mutować, by uniknąć ataku. Wiemy, że taki scenariusz jest możliwy, gdyż już przed kilkoma miesiącami w RPA opisano przypadek nosicielki wirusa HIV, która przez ponad pół roku była zarażona SARS-CoV-2. W tym czasie wirus w jej organizmie uległ licznym mutacjom, a część z nich pojawiła się w białku S. Jeszcze inną możliwą drogą nabycia tak wielu mutacji w krótkim czasie jest pojawienie się ich wśród zwierząt. Wiele dowodów wskazuje na to, że SARS-CoV-2 pochodzi od nietoperzy, znamy też przykłady przechodzenia tego wirusa z ludzi na zwierzęta. Nie można więc wykluczyć, że jakieś zwierzęta zaraziły się od ludzi SARS-CoV-2, w ich organizmach wirus zetknął się z zupełnie innym środowiskiem, inną presją ze strony układu odpornościowego, nabył wielu mutacji i ponownie zaraził człowieka. Jednak, jak podkreśla Gonzalo Bello z Instytutu Oswaldo Cruza w Rio de Janeiro, który badał brazylijską odmianę Gamma, taka droga nabycia dużej liczby mutacji to obecnie wyłącznie spekulacja. Dobre zrozumienie historii i ewolucji wariantu Omikron będzie wymagało zidentyfikowania pierwszego pacjenta lub społeczności, w której się pojawił. To jednak będzie bardzo trudne, gdyż wychwytujemy jedynie niewielką część zarażonych ludzi. Jednak im więcej przypadków Omikrona zostanie znalezionych, a ich genomy zsekwencjonowane, tym większe prawdopodobieństwo, że uda się określić obszar i czas, w którym po raz pierwszy się pojawił. « powrót do artykułu
  18. NASA uruchomiła system monitoringu asteroid nowej generacji. Dzięki niemu Agencja lepiej będzie mogła ocenić zagrożenie, jakie dla naszej planety stwarzają poszczególne asteroidy.  Obecnie znamy 27 744 asteroid bliskich Ziemi. Jest wśród nich 889 obiektów o średnicy przekraczającej 1 km i 9945 asteroid o średnicy ponad 140 metrów. Jednak w najbliższym czasie ich liczba znacznie się zwiększy. Stąd potrzeba doskonalszego algorytmu oceny zagrożenia. W ciągu najbliższych lat prace rozpoczną nowocześniejsze, bardziej zaawansowane teleskopy. Można się więc spodziewać szybkiego wzrostu liczy nowo odkrytych asteroid, których orbity trzeba będzie obliczyć i nadzorować. W kulturze popularnej asteroidy są często przedstawiane jako obiekty chaotyczne, gwałtownie zmieniające kurs i zagrażające Ziemi. W rzeczywistości jednak są niezwykle przewidywalne i krążą wokół Słońca po znanych orbitach. Czasem jednak z obliczeń wynika, że orbita asteroidy znajdzie się blisko Ziemi. Wówczas, ze względu na niewielkie niepewności co do dokładnej pozycji asteroidy, nie można całkowicie wykluczyć uderzenia. Astronomowie używają się złożonych systemów monitorowani i obliczania orbit, które automatycznie obliczają ryzyko zderzenia asteroidy z Ziemią. Należące do NASA Center for Near Earth Object Studies (CNEOS) oblicza orbity dla każdej znanej asteroidy i przekazuje dane do Planetary Defense Coordinatio Office (PDCO). Od 2002 roku CNEOS wykorzystuje w tym celu oprogramowanie Sentry. Pierwsza wersja Sentry to bardzo dobre oprogramowanie, które działa od niemal 20 lat. Wykorzystuje bardzo sprytne algorytmy. W czasie krótszym niż godzina potrafi z dużym prawdopodobieństwem ocenić ryzyko zderzenia z konkretną asteroidą w ciągu najbliższych 100 lat, mówi Javier Roa Vicens, który stał na czele grupy pracującej nad Sentry-II, a niedawno przeniósł się do SpaceX. Sentry-II korzysta z nowych bardziej dokładnych i wiarygodnych algorytmów, które potrafią obliczyć ryzyko uderzenia z dokładnością wynoszącą ok. 5 na 10 000 000. Ponadto bierze pod uwagę pewne elementy, których nie uwzględniało Sentry. Gdy asteroida wędruje w Układzie Słonecznym, o jej orbicie decyduje przede wszystkim oddziaływanie grawitacyjne Słońca. Wpływ na jej orbitę ma też grawitacja planet. Sentry z dużą dokładnością potrafi obliczyć wpływ sił grawitacyjnych, pokazując, w którym miejscu przestrzeni kosmicznej asteroida znajdzie się za kilkadziesąt lat. Jednak Sentry nie uwzględnia sił innych niż grawitacja. A najważniejszymi z nich są siły oddziałujące na asteroidę w wyniku ogrzewania jej przez Słońce. Asteroidy obracają się wokół własnej osi. Zatem są ogrzewane przez Słońce z jednej strony, następnie ogrzana strona odwraca się od Słońca i stygnie. Uwalniana jest wówczas energia w postaci promieniowania podczerwonego, która działa jak niewielki, ale stały napęd. To tzw. efekt Jarkowskiego. Ma on niewielki wpływ na ruch asteroidy w krótki terminie, jednak na przestrzeni dekad i wieków może znacząco zmienić orbitę asteroidy. Fakt, że Sentry nie potrafił automatycznie uwzględniać efektu Jarkowskiego był poważnym ograniczeniem. Za każdym razem, gdy mieliśmy do czynienia z jakimś szczególnym przypadkiem – jak asteroidy Apophis, Bennu czy 1950 DA – musieliśmy ręcznie dokonywać skomplikowanych długotrwałych obliczeń. Dzięki Sentry-II nie będziemy musieli tego robić, mówi Davide Farnocchia, który pracował przy Sentry-II. Ponadto oryginalny algorytm Sentry miał czasem problemy z określeniem prawdopodobieństwa kolizji, gdy orbita asteroidy miała znaleźć się niezwykle blisko Ziemi. Na takie asteroidy w znaczący sposób wpływa grawitacja planety i w takich przypadkach gwałtownie rosła niepewność co do przyszłej orbity asteroidy po bliskim spotkaniu z Ziemią. Sentry mógł mieć wówczas problemy i konieczne było przeprowadzanie ręcznych obliczeń i wprowadzanie poprawek. W Sentry-II nie będzie tego problemu. Co prawda takie szczególne przypadki stanowią obecnie niewielki odsetek wszystkich obliczeń, ale spodziewamy się, że po wystrzeleniu przez NASA misji NEO Surveyor i uruchomieniu Vera C. Rubin Observatory, ich liczba wzrośnie, musimy więc być przygotowani, mówi Roa Vicens. NASA zdradza również, że istnieje zasadnicza różnica w sposobie pracy Sentry i Sentry-II. Dotychacz gdy teleskopy zauważyły nieznany dotychczas obiekt bliski Ziemi astronomowie określali jego pozycję na niebie i wysyłali dane to Minor Planet Center. Dane te były wykorzystywane przez CNEOS do określenia najbardziej prawdopodobnej orbity asteroidy wokół Słońca. Jednak, jako że istnieje pewien margines niepewności odnośnie obserwowanej pozycji asteroidy wiadomo, że orbita najbardziej prawdopodobna nie musi być tą prawdziwą. Rzeczywista orbita asteroidy mieści się w znanych granicach niepewności pomiarowej. Sentry, by obliczyć prawdopodobieństwo zderzenia z Ziemią, wybierał zestaw równomiernie rozłożonych punktów w obszarze niepewności pomiarowej, uwzględniając przy tym jednak tę część obszaru, w której z największym prawdopodobieństwem znajdowały się orbity zagrażające Ziemi. Każdy z punktów reprezentował nieco inną możliwą rzeczywistą pozycję asteroidy. Następnie dla każdego z nich algorytm określał orbitę asteroidy w przyszłości i sprawdzał, czy któraś z nich przebiega blisko Ziemi. Jeśli tak, to skupiał się na tej orbicie, wyliczając dla niej prawdopodobieństwo uderzenia. Sentry-II działa inaczej. Wybiera tysiące punktów rozłożonych na całym obszarze niepewności pomiarowej. Następnie sprawdza, które z możliwych punktów w całym regionie są powiązane z orbitami zagrażającymi Ziemi. Innymi słowy, Sentry-II nie jest ograniczony założeniami dotyczącymi tego, gdzie na obszarze marginesu błędu pomiarowego mogą znajdować się orbity najbardziej zagrażające Ziemi. Bierze pod uwagę cały obszar, dzięki czemu może wyłapać też bardzo mało prawdopodobne scenariusze zderzeń, które mogły umykać uwadze Sentry. Farnocchia porównuje to do szukania igły w stogu siana. Igły to możliwe zderzenia, a stóg siana to cały obszar błędu pomiarowego. Im większa niepewność odnośnie pozycji asteroidy, tym większy stóg siana, w którym trzeba szukać. Sentry sprawdzał stóg siana wielokrotnie, szukając igieł wzdłuż pojedynczej linii przebiegającej przez cały stóg. Sentry-II nie korzysta z żadnej linii. Szuka w całym stogu. Sentry-II to olbrzymi postęp w dziedzinie zidentyfikowania nawet najmniej prawdopodobnych scenariuszy zderzenia wśród olbrzymiej liczby wszystkich scenariuszy. Gdy konsekwencje przyszłego uderzenia asteroidy mogą być naprawdę katastrofalne, opłaca się poszukać nawet tych mało prawdopodobnych scenariuszy, mówi Steve Chesley, który stał na czele grupy opracowującej Sentry i pomagał przy pracy nad Sentry-II. Szczegółowy opis Sentry-II znajdziemy na łamach The Astronomical Journal. Poniższy film pokazuje zaś w jaki sposób określono orbitę asteroidy Bennu z uwzględnieniem sił grawitacyjnych i niegrawitacyjnych.   « powrót do artykułu
  19. W Hadrianopolis w Paflagonii odkryto żelazną maskę, która ok. 1800 lat temu należała do rzymskiego kawalerzysty. Archeolodzy natrafili na nią podczas wykopalisk ufortyfikowanej struktury. Archeolodzy pracują na tym stanowisku od 2003 r. Dotąd odkryli 14 struktur, w tym 2 łaźnie, 2 świątynie, willę czy ufortyfikowany budynek na planie kwadratu. W oparciu o forteczną ścianę przypuszczamy, że budynek pełnił funkcje wojskowe. Żelazną maskę odkryliśmy podczas wykopalisk prowadzonych właśnie w tym miejscu - opowiada dr Ersin Çelikbaş z Uniwersytetu w Karabüku. Podobne znaleziska i stratygraficzne położenie sugerują, że maska pochodzi z III w. n.e. Archeolodzy uważają, że w Hadrianopolis mógł stacjonować rzymski garnizon. Çelikbaş wyjaśnia, że Rzym chciał chronić imperium, budując na jego krańcach bazy zabezpieczające przed różnymi zagrożeniami pochodzącymi z regionu Morza Czarnego. Wydaje się, że Hadrianopolis było jednym z takich ośrodków. Wykopaliska mają być kontynuowane. « powrót do artykułu
  20. W zeszłym roku podczas lockdownu Jim Irvine udał się na spacer po polu swojego ojca w Ruthland. Jego uwagę przyciągnęła rozrzucona rzymska ceramika. Później zauważył wyróżniki roślinne budynku, a wreszcie mozaikę. Irvine skontaktował się z archeologami z Leicestershire County Council. Gdy na miejscu zjawili się Richard Clark i Peter Liddle, potwierdzili wagę znaleziska. Dobrze zachowana mozaika przedstawiała postaci ludzkie, konie i rydwany. Zważywszy na wagę odkrycia, udało się pozyskać środki na pilne badania archeologiczne, które zostały przeprowadzone w sierpniu 2020 r. przez Służbę Archeologiczną Uniwersytetu w Leicester (ULAS). Dzięki kolejnym funduszom z Historic England, posługując się georadarem, ustalono, że znajdował się tu kompleks budynków. Choć jego stan był bardzo dobry, dalsze analizy wykazały, że ze względu na płytkie położenie ryzyko uszkodzenia podczas przyszłych prac polowych jest wysokie. Biorąc to wszystko pod uwagę, rozpoczęto starania, by uznać stanowisko za zabytek archeologiczny (pod koniec listopada 2021 r. procedura się zakończyła). Ostatnie wykopaliska, w których wzięli przedstawiciele ULAS oraz Szkoły Archeologii i Historii Starożytnej (SAAH), w tym studenci, miały miejsce rok po początkowym odkryciu. Pozostałości mozaiki mierzą 11 na niemal 7 m. Podczas jej odsłaniania w pewnym momencie stało się jasne, że sceny przedstawiają pojedynek Achillesa i Hektora. To unikat w skali Wielkiej Brytanii. W Europie takie przedstawienia również są rzadkie. Naukowcy wskazują, że historię opowiedziano w 3 panelach w stylu, który przywodzi na myśl komiks. Na pierwszym panelu widać pojedynek Achillesa i Hektora w zaprzężonych w konie rydwanach. Środkowy panel przedstawia Achillesa, który ciągnie ciało Hektora za rydwanem oraz ojca Hektora Priama, który prosi o wydanie ciała zwyciężonego. Na ostatnim panelu widnieje scena wymiany Hektora za wagę jego ciała w złocie. Widać, że mozaika jest dziełem uzdolnionego artysty. Gama wykorzystanych kolorów, przywiązanie do szczegółów i sposób, w jaki niektóre postaci wykraczają poza gilosz, sugerują, że wzorem dla tego dzieła mógł być należący do właściciela willi iluminowany manuskrypt. Ciekawych informacji dostarczyło także badanie warstw nad mozaiką. Okazało się, że gdy pomieszczenie przestało być wykorzystywane jako jadalnia/pokój rozrywkowy, wielokrotnie palił się tu ogień, przez co mozaika została uszkodzona. Powyżej znajdowały się warstwy gruzu: to skutek stopniowego walenia się budynku albo celowego wyburzenia. Na wierzchu odkryto 2 szkielety. Ludzi tych pochowano w obrębie pomieszczenia, co sugeruje, że było nadal widoczne nad powierzchnią gruntu. Na razie naukowcy czekają na wyniki datowania pochówków. Pomieszczenie z mozaiką stanowiło część dużej willi, wykorzystywanej między III a IV w. n.e. Podczas wspomnianych wcześniej badań geofizycznych i archeologicznych odkryto szereg innych budynków, w tym stodoły, możliwą łaźnię oraz okrągłe struktury. Całość była otoczona rowami granicznymi. Rodzinna wycieczka przez pola zmieniła się w niezwykłe odkrycie. Gdy znalazłem w pszenicy niezwykłą ceramikę, zacząłem głębiej drążyć tę kwestię. Przyglądając się zdjęciu satelitarnemu, dostrzegłem wyraźne wyróżniki roślinne - jakby ktoś narysował coś kredą na ekranie. W tym momencie doznałem olśnienia. Tak zaczęła się ta historia. Odkrycie archeologiczne wypełniło większość mojego wolnego czasu w zeszłym roku - podkreśla Jim Irvine. Willa, jej mozaika i otaczający kompleks stanowią najbardziej wyróżniające się znalezisko w najnowszej historii archeologicznej Ruthland - dodaje Richard Clark, archeolog hrabstw Leicestershire i Rutland. Naukowcy zapowiadają, że znaleziska będą nadal badane przez ULAS, Historic England oraz innych brytyjskich specjalistów, w tym Davida Neala, czołowego eksperta od mozaiki. W związku z przyznaniem miejscu statusu zabytku archeologicznego Historic England współpracuje z właścicielem pola, by pomóc mu w przekształceniu ziemi w pastwisko. Na przyszły rok planowany jest kolejny sezon wykopalisk. Na wzór herosów Achilles z 1. panelu jest nagi i zauważalnie większy od przeciwnika. Jego konie - Balios i Ksantos - są różnie  umaszczone. Widzimy tutaj scenę walki na rydwanach. Tymczasem w Iliadzie Achilles i Hektor walczyli pieszo. Zresztą starożytni Grecy nie wyobrażali sobie pojedynków na rydwanach. Służyły one wyłącznie do rozbijania szyków piechoty. Mimo że drugi panel jest uszkodzony, widać wleczone za Achillesowym rydwanem krwawiące ciało Hektora. Scenie tej przygląda się król Troi Priam. Achilles dzierży czerwoną tarczę, w którą w poprzednim panelu był wyposażony Hektor (tym samym wróciła ona do prawowitego właściciela). W materiale filmowym o mozaice mowa jest także o pistrixie (wężu czy potworze morskim). Wg narratorki, potwór morski może symbolizować wodę, prawdopodobnie morze, albo stanowić personifikację rzeki Skamander. Ostatni panel przedstawia Priama, który dostarcza okup za ciało syna. Na środku stoi służący z wagą na ramionach. Z jednej strony znajduje się ciało Hektora, a po drugiej złoty talerz, do którego Priam dokłada kolejne złote naczynia. Lewa połowa panelu jest mocno spalona, ale przyglądając się układowi kamieni, da się dostrzec zarys dzierżącego włócznię i tarczę siedzącego Achillesa. Towarzyszą mu dwaj stojący greccy żołnierze. Ubrania postaci na trzecim panelu przypominają rzymskie ubrania z okresu powstania mozaiki. Już same rozmiary mozaiki czynią ją niezwykle interesującym zabytkiem. Jednak to nie wszystko. Przedstawia ona bowiem alternatywną wersję wykupienia ciała Hektora przez Priama. W Iliadzie Herod pisze, że Achilles jeszcze żywemu  Hektorowi zapowiada, że nie odda jego ciała rodzinie, nawet gdyby oferowali równą wagę w złocie. Później zmienia zdanie i oddaje zabitego Hektora Priamowi w zamian za złoto i cenne tkaniny. Homer nie wspomina tutaj o wymianie ciała z jego wagę w złocie. Tymczasem na mozaice widzimy scenę, w której na jednej szali leży ciało Hektora, na drugą zaś Priam kładzie złoto. Taki obraz spopularyzował jeden z najwybitniejszych twórców greckiej tragedii, Ajschylos, w zaginionym obecnie dziele opowiadającym o tych wydarzeniach. I, jak widzimy, obraz ten był popularny nawet 700-800 lat później na rubieżach Imperium Romanum.   « powrót do artykułu
  21. "Echoes" to interaktywna instalacja autorstwa Mathiasa Gmachla. Powstała z ok. 4,5 t stali i mierzy ponad 17 m. Przedstawia podświetlonego walenia. Gdy widz za bardzo się do niego zbliży i przekroczy pewną granicę, światła rzeźby przygasają, a ścieżka dźwiękowa przycicha do momentu, aż człowiek odejdzie na "bezpieczną" odległość. Zabieg ten ma pokazać, co się dzieje, gdy ludzie zawłaszczają przestrzeń, której inni mieszkańcy Ziemi potrzebują, by przetrwać. Oceany mają swoje własne środowisko dźwiękowe, które jest kluczowe do tego, by zwierzęta morskie mogły wykorzystywać dźwięk do komunikacji, orientacji i unikania zagrożeń. Ludzka działalność staje się coraz głośniejsza, co [...] prowadzi do zmian fizjologicznych i behawioralnych u morskiej fauny. W niektórych przypadkach kończy się to śmiercią - podkreślono w opisie projektu, udostępnionym przez Gmachla na Facebooku. Wymyśliłem, by umieścić zagrożone zwierzęta w mieście i stworzyć ludziom przestrzeń do refleksji nad kwestią naszej przyszłości. Uważam, że to prosty sposób na przekazanie, czym jest wyginięcie: wszystko cichnie i zanika - tłumaczy artysta. Od początku prac Gmachl wiedział, że chce wzorować powstającą strukturę na rocznym płetwalu błękitnym. To krytyczny, związany z usamodzielnieniem, czas w życiu tego zwierzęcia. Projekt powstał we współpracy z Dzielnicą Muzeów (MuseumsQuartier) w Wiedniu i Lugano Arte e Cultura. Do 11 czerwca instalacja znajdowała się w stolicy Austrii, a od 25 czerwca do 12 października walenia można było podziwiać w Parco Ciani w Lugano. Obecnie "Echoes: A Voice From Uncharted Waters" stanowi ozdobę 12. edycji festiwalu Luminothérapie w Montrealu. O innych projektach tego twórcy można poczytać na stronie Loop.pH.   « powrót do artykułu
  22. Międzynarodowy zespół naukowy, na którego czele stoją uczeni z Holandii, informuje, że nie znalazł śladów ciemnej materii w galaktyce AGC 114905. Obecnie powszechne jest przekonanie, że galaktyki mogą istnieć wyłącznie dzięki ciemnej materii, której oddziaływanie utrzymuje je razem. Przed dwoma laty Pavel Mancera Piña i jego zespół z Uniwersytetu w Groningen poinformowali o zidentyfikowaniu sześciu galaktyk, zawierających niewiele lub nie zawierających w ogóle ciemnej materii. Wówczas usłyszeli od swoich kolegów, by lepiej poszukali, a przekonają się, że musi tam ona być. Teraz, po prowadzonych przez 40 godzin obserwacjach za pomocą Very Large Array (VLA) uczeni potwierdzili to, co zauważyli wcześniej – istnienie galaktyk bez ciemnej materii. AGC 114905 znajduje się w odległości 250 milionów lat świetlnych od Ziemi. To skrajnie rozproszona galaktyka (UDG – ultra diffuse galaxy) karłowata, ale określenie „karłowata” odnosi się w jej przypadku do jasności, a nie wielkości. Galaktyka jest bowiem wielkości Drogi Mlecznej, ale zawiera około 1000-krotnie mniej gwiazd. Przeprowadzone obserwacje i analizy przeczą przekonaniu, jakoby wszystkie galaktyki, a już na pewno karłowate UDG, mogły istnieć tylko dzięki utrzymującej je razem ciemnej materii. Pomiędzy lipcem a październikiem 2020 roku naukowcy przez 40 godzin zbierali za pomocą VLA dane dotyczące ruchu gazu w tej galaktyce. Na podstawie obserwacji stworzyli grafikę pokazującą odległość gazu od galaktyki na osi X oraz jego prędkość obrotową na osi Y. To standardowy sposób badania obecności ciemnej materii. Tymczasem analiza wykazała, że ruch gazu w AGC 114905 można całkowicie wyjaśnić odwołując się wyłącznie do widocznej materii. Tego oczekiwaliśmy i spodziewaliśmy się, gdyż potwierdza to nasze wcześniejsze obserwacje. Problem jednak pozostaje, gdyż obecnie obowiązujące teorie mówią, że AGC 114905musi zawierać ciemną materię. Nasze obserwacje wskazują, że jej tam nie ma. Po kolejnych badaniach mamy zatem coraz większą rozbieżność między teorią a obserwacjami, stwierdza Pavel Mancera Piña. Naukowcy próbują więc wyjaśnić, co stało się z ciemną materią. Wedle jednej z wysuniętych przez nich hipotez, AGC 114905 mogłaby zostać pozbawiona ciemnej materii przez wielkie sąsiadujące z nią galaktyki. Problem w tym, że nie ma takich galaktyk. Zeby wyjaśnić ten brak ciemnej materii na gruncie powszechnie akceptowanego modelu kosmologicznego Lambda-CDM musielibyśmy wprowadzić do niego parametry o ekstremalnych wartościach, znajdujących się daleko poza akceptowanym zakresem. Również na gruncie alternatywnego modelu – zmodyfikowanej dynamiki newtonowskiej – nie jesteśmy w stanie wyjaśnić ruchu gazu w tej galaktyce. Uczeni mówią, że istnieje pewne założenie, które mogłoby zmienić wnioski z ich badań. Założeniem tym jest kąt, pod jakim sądzą, że obserwowali AGC 114905. Jednak kąt ten musiałby się bardzo mocno różnić od naszych założeń, by we wnioskach było miejsce na istnienie ciemnej materii, mówi współautor badań Tom Oosterloo. Tymczasem zespół badań kolejną UDG. Jeśli i tam nie znajdzie śladów ciemnej materii, będzie to bardzo silnym potwierdzeniem dotychczasowych spostrzeżeń. Warto tutaj przypomnieć, że już 3 lata temu donosiliśmy, że zespół z Yale University odkrył pierwszą galaktykę bez ciemnej materii. Metoda wykorzystana przez Holendrów jest bardziej wiarygodna i odporna na zakłócenia. « powrót do artykułu
  23. Badania nad rodzicami z Rosji i USA oraz nad literaturą dziecięcą w obu krajach pokazują różnice kulturowe w podejściu do wychowania dzieci w obu krajach. Naukowcy zauważyli, że rosyjscy rodzice z większym prawdopodobieństwem niż amerykańscy czytają swoim dzieciom historie, w których opisywane są negatywne emocje, jak strach, złość czy smutek. W USA kładzie się nacisk na wartość emocji pozytywnych, jak szczęście czy duma, mówi współautorka badań, profesor psychologii Amy Halberstadt. W Rosji jest to bardziej zróżnicowane. Wydaje się, że rosyjska kultura ceni wszystkie emocje, w tym negatywne, i jest dla niej ważne, by od nich się uczyć, stwierdza profesor psychologii Yulia Chentsova-Dutton z Georgetown University. Jako że historie, które słyszymy i czytamy jako dzieci często mówią o emocjach, które później cenimy, chcieliśmy zobaczyć, jak w tej kwestii różnią się obie kultury, dodaje. Naukowcy przeprowadzili dwa badania. W pierwszym z nich udział wzięło 322 rodziców, któe miały dzieci w wieku poniżej 10 lat. Należeli oni do trzech grup: 72 rodziców urodziło się w USA i tam mieszkało, 72 rodziców urodziło się w Rosji, ale mieszkało w USA, 178 rodziców urodziło się w Rosji i mieszkało w Rosji. Naukowcy poprosili tych rodziców, by opisali, do jakiego stopnia książki, które czytają swoim dzieciom, zawierają 10 różnych emocji: 6 pozytywnych i 4 negatywne. Nie było różnicy pomiędzy grupami jeśli chodzi o częstotliwość pojawiania się w literaturze emocji pozytywnych. Każdy lubi książki z takimi emocjami, zauważa Anita Adams z University of Kentucky. Jednak rosyjscy rodzice czytali dzieciom książki z większą liczbą negatywnych emocji. Z kolei rodzice rosyjsko-amerykańscy znajdowali się gdzieś pomiędzy tymi grupami". Kiedy uczeni poprosili rodziców o ocenę ocenę smutku, okazało się, że rosyjscy rodzice bardziej cenili smutek niż rodzice amerykańscy. "To nadawanie smutkowi większej wartości wydaje się jedną z przyczyn, dla których rodzice ci w większym stopniu angażują się ze swoimi dziećmi w emocje negatywne, wyjaśnia Halberstadt. Podczas drugich badań uczeni przeanalizowali 40 najlepiej sprzedających się książek dla dzieci w wieku przedszkolnym w USA i Rosji. Analizowali zarówno tekst, jak i ilustracje, by ocenić zakres i częstotliwość pojawiania się w nich emocji negatywnych i pozytywnych. Stwierdzili, że w rosyjskich książkach dla dzieci znajdziemy szersze spektrum emocji. Tekst w rosyjskiej literaturze dziecięcej częściej opisywał złość i smutek niż tekst w literaturze amerykańskiej. Z kolei ilustracje w rosyjskich książkach dla dzieci częściej przedstawiały szczęście, złość i strach, niż w książkach amerykańskich. Nasze badania pokazują, jak różnie w przeżywanie emocji ze swoimi dziećmi angażują się rodzice rosyjscy i amerykańscy. Wydaje się, że rosyjscy rodzice z większym prawdopodobieństwem mają szansę na wspieranie swoich dzieci w przeżywaniu trudnych emocji jak gniew czy smutek, dodają uczeni. Zauważają, że przyszłe badania mogłoby pokazać, jaki wpływ ma to na wyposażenie dzieci w narzędzia do radzenia sobie z negatywnymi emocjami. Szczegóły badań opisano w artykule And they all lived unhappily ever after: Positive and negative emotions in American and Russian picture books. « powrót do artykułu
  24. Michał Styczyński z Wydziału Biologii Uniwersytetu Warszawskiego odkrył, że bakterie z Antarktyki wytwarzają naturalną substancję z grupy melanin. Można by ją wykorzystać w kremach z filtrem UV, zastępując syntetyczny oksybenzon, który przyczynia się do wymierania koralowców. Środek ten zaburza gospodarkę hormonalną parzydełkowców, uniemożliwiając im rozmnażanie się. Uczony zauważył, że pod wpływem odpowiedniego stresu środowiskowego bakterie wytwarzają substancję z grupy melanin. Może ona potencjalnie posłużyć do zastąpienia nią oksybenzonu. Antarktyka jest jednym z najbardziej ekstremalnych regionów na Ziemi. Charakteryzuje się ona bardzo niskimi temperaturami, dochodzącymi do -90 °C, wysoką ekspozycją na promieniowanie UV, niską dostępnością substancji odżywczych, a także obecnością silnie zasolonych zbiorników wodnych. Organizmy występujące w tak skrajnych warunkach musiały wykształcić szereg cech adaptacyjnych umożliwiających im przeżycie. Zimnolubne bakterie, określane jako psychrofile lub psychrotoleranty, wytwarzają m.in. specyficzne metabolity wtórne, takie jak barwniki ochronne, dzięki którym mogą optymalnie funkcjonować w polarnym środowisku, mówi Styczyński. Naturalną melaninę można by wytwarzać na skalę przemysłową namnażając bakterie w laboratorium i poddając je następnie odpowiedniej stymulacji. Jednak to nie jedyna zaleta bakterii arktycznych. Badania wykazały, że wytwarzają one też karotenoidy posiadające bardzo silne właściwości przeciwutleniające. Również i one mogą odegrać ważną rolę. Wytwarzane przez bakterie związki, ze względu na swoją specyficzną, wielonienasyconą strukturę i wynikające z niej właściwości przeciwutleniające, zapobiegają szkodliwemu działaniu promieniowania UV. Ponadto odgrywają one istotną rolę w kontrolowaniu płynności błon i chronią komórki bakteryjne przed uszkodzeniem na skutek zamarzania. Tego rodzaju substancje mają zdolność wychwytywania wolnych rodników, dlatego są w centrum zainteresowania laboratoriów produkujących preparaty kosmetyczne do pielęgnacji skóry o działaniu przeciwstarzeniowym. Na rynku obowiązują jednak ścisłe normy i restrykcje, które definiują zawartość zanieczyszczeń pochodzących z syntezy chemicznej. Nasze odkrycia wskazują, że przemysł kosmetyczny mógłby na dużo większą skalę korzystać z substancji pochodzenia naturalnego, dodaje Michał Styczyński. Niezwykle ważną cechą bakterii antarktycznych jest fakt, że łatwo jest je hodować. Ze względu na ich fizjologię organizmy te mają niewielkie wymagania odnośnie temperatury i dostępności pokarmu. Nie ma żadnych większych przeszkód natury technologicznej, by tą drogą pozyskiwać naturalne substancje na skalę przemysłową. Bakterie z Antarktydy mogą też wspomagać wzrost roślin. Mogą zwiększać dostępność mikroelementów, co można wykorzystać w rolnictwie. W praktyce można więc wykorzystać szczepy bakterii do zwiększania jakości i biomasy roślin uprawnych, chronić je przed chorobami, a także redukować ilość stosowanych nawozów chemicznych, wyjaśnia naukowiec. Komercjalizacją odkryć ma zająć się spółka Biotemist, utworzona przy Uniwersytecie Warszawskim. « powrót do artykułu
  25. NASA wybrała trzy firmy, które mają opracować koncepcje komercyjnych stacji kosmicznych i innych podobnych instalacji w przestrzeni pozaziemskiej. Podpisanie umów Space Act Agreement ma na celu ułatwienie rozwoju komercyjnego rynku na niskiej orbicie okołoziemskiej. Wybrane przedsiębiorstwa otrzymają w pierwszym etapie finansowania 415,6 miliona dolarów. Umowy Space Act Agreement zostały podpisane z Blue Origin (umowa opiewa na 130 milionów USD), Nanoracks LLC (160 milionów USD) oraz Notrthrop Grumman Systems Corporation (125,6 miliona USD). Celem NASA jest zapewnienie stałej obecności USA na niskiej orbicie okołoziemskiej nie tylko na Międzynarodowej Stacji Kosmicznej, ale również na innych platformach. Współpraca i dofinansowanie przez NASA ma zachęcić prywatne amerykańskie firmy do budowy niezależnych komercyjnych stacji kosmicznych, z których będą mogły korzystać zarówno agendy rządowe, jak i klienci prywatni. Prywatne firmy zapewniają obecnie transport na niską orbitę okołoziemską. Teraz nawiązujemy z amerykańskimi przedsiębiorstwami współpracę, której celem jest powstanie miejsc, które ludzie będą mogli odwiedzać, żyć na nich i pracować. Dla dobra ludzkości NASA nadal będzie wyznaczała więc drogi w kosmosie, ułatwiając jednocześnie komercyjną działalność w przestrzeni kosmicznej, powiedział Bill Nelson, administrator NASA. W ramach obecnie podpisanych umów NASA dofinansuje pierwszą z dwóch faz projektu przeniesienia aktywności z Międzynarodowej Stacji Kosmicznej do stacji komercyjnych. W pierwszej fazie prywatne firmy we współpracy z NASA mają przygotować projekty stacji kosmicznych umieszczonych na niskiej orbicie okołoziemskiej. Stacje te mają spełniać wymagania zarówno sektora rządowego jak i prywatnego. Faza tam ma trwać jeszcze w roku 2025. Pierwsza z wymienionych firm, Blue Origin, współpracuje już z Sierra Space nad komercyjną stacją Orbital Reef, która ma zostać uruchomiona jeszcze w obecnej dekadzie. Partnerami tego projektu są m.in. Boeing, Redwire Space, Genesis Engineering oraz Arizona State University. Projekt Orbital Reef zakłada, że będzie to park biznesowy o wielorakim przeznaczeniu. Stacja ma służyć różnym potrzebom biznesowym i ma mieć możliwość rozbudowywania w miarę pojawiania się nowych potrzeb. Ma zostać przygotowana pod kątem sektora prywatnego, rządowego i naukowego. Z kolei Nanoracks, we współpracy z firmami Voyager Space i Lockheed Martin, pracuje nad Starlabem. Ta stacja ma być zbudowana w całości na Ziemi i zostać wystrzelona w 2027 roku. Ma to być komercyjna stacja przeznaczona do prowadzenia zaawansowanych badań naukowych. Pomieści do czterech astronautów i będzie stale zamieszkana. Na jej pokładzie znajdzie się George Washington Carver Science Park składający się z czterech głównych elementów: laboratorium biologicznego, laboratorium hodowli roślin, laboratorium badań fizycznych i laboratorium badań materiałowych. Ponadto znajdzie się tam też miejsce na prowadzenie innych prac badawczych. Starlab zostanie zaprojektowana tak, by możliwe było dołączanie do niej kolejnych modułów badawczych, jeśli pojawiłaby się taka potrzeba. Wydaje się, że najbardziej ambitne plany ma Northrop Grumman. Firma pracuje nad modułową stacją kosmiczną, w której wykorzysta doświadczenie zdobyte w ciągu dekad współpracy z NASA. W skład stacji wejdą m.in. już sprawdzone elementy, jak pojazd towarowy Cygnus zaopatrujący obecnie Międzynarodową Stację Kosmiczną. Stacja ma służyć zarówno celom naukowym, turystycznym jak i zadaniom przemysłowym. Jej projekt ma umożliwiać rozbudowę poza zadania określone na początku. Mają się na niej znaleźć liczne miejsca dokujące, habitaty, laboratoria czy urządzenia do generowania sztucznej grawitacji. Wiadomo, że partnerem Northropa Grummana jest firma Dynetics. O innych partnerach mamy dowiedzieć się w przyszłości. W drugiej fazie współpracy NASA z wymienionymi przedsiębiorstwami odbędzie się proces certyfikowania komercyjnych stacji kosmicznych na potrzeby ich używania przez astronautów NASA oraz potencjalne złożenie przez NASA ofert i podpisanie komercyjnych umów na korzystanie przez NASA z tych stacji oraz świadczenie przez ich właścicieli usług na rzecz Agencji. Ma to obniżyć koszty funkcjonowania NASA i zwolnić ją z konieczności posiadania własnej infrastruktury na niskiej orbicie okołoziemskiej, dzięki czemu w większym stopniu będzie mogła skupić na misji Artemis, czyli działaniach na orbicie Księżyca i jego powierzchni oraz przygotowaniach do załogowej misji na Marsa. NASA przewiduje, że w przyszłości będzie potrzebowała możliwości stałego pobytu i treningu co najmniej 2 swoich astronautów na niskiej orbicie, wsparcia z niskiej orbity dla narodowego laboratorium kosmicznego oraz możliwości prowadzenia na niskiej orbicie około 200 projektów naukowych rocznie. Liczy na to, że plany te będzie mogła zrealizować dzięki komercyjnym partnerom. NASA chce doprowadzić do sytuacji, w której prywatny biznes będzie posiadał na niskiej orbicie okołoziemskiej własną infrastrukturę i będzie nią zarządzał. Dzięki temu, że NASA będzie jednym z wielu klientów, Agencja liczy na obniżenie kosztów własnej działalności na niskiej orbicie okołoziemskiej i skierowaniu zasobów na eksplorację dalszych części kosmosu. « powrót do artykułu
×
×
  • Dodaj nową pozycję...