Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36957
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. W szwedzkim mieście Sigtuna odkryto siedem grobów z epoki wikingów z dobrze zachowanymi szkieletami. Wśród nich są prawdopodobnie bliźnięta. W sumie odkryto szczątki ośmiu osób sprzed 1000 lat – czwórki dorosłych i czworga dzieci. Naukowcy sądzą, że byli to wikingowie, którzy przeszli na chrześcijaństwo. Chrześcijański charakter tych pochówków jest oczywisty. Pochowano tutaj prawdopodobnie pierwszą generację tutejszych chrześcijan, mówi Johan Runer z firmy Uppdrag arkeologi, która prowadziła wykopaliska. W miejscach pochówków znaleziono węgiel drzewny i pozostałości trumien, co wskazuje na odbywanie ceremonii ognia w przypadku co najmniej czterech pochówków. Takie ceremonie są często spotykane w przypadku chrześcijańskich pochówków wikingów, ale wcześniej rzadko je odkrywaliśmy w Sigtunie, dodaje Runer. Na czterech grobach ułożono kopczyki z kamieni, a jeden z nich dodatkowo otoczono kamieniami ułożonymi na kształt pudełka. Taki sposób oznaczania wczesnochrześcijańskich pochówków jest znany z tej okolicy Szwecji, chociaż wcześniej nie natrafiono nań w samej Sigtunie. W jednym z grobów złożono dwoje bardzo małych dzieci, w prawdopodobnie tym samym wieku. Archeolodzy przypuszczają, że mamy tu do czynienia z dziećmi zmarłymi w wyniku późnego poronienia. W grobach odkryto też nieco interesujących artefaktów. W jednym znajdował się skórzany pas zdobiony żelazem i posrebrzaną miedzią, a w ustach zmarłego odkryto srebrne monety. W innym pochówku okryto pięknie zdobiony kościany grzebień. Wiele wskazuje na to, że mamy tutaj do czynienia z jednymi z pierwszych chrześcijańskich pochówków w okolicy. Pochodzą one z czasu, gdy założono Sigtunę pod koniec X wieku. « powrót do artykułu
  2. Dziś (8 lipca) odbędzie się aukcja rysunku głowy niedźwiedzia autorstwa Leonarda da Vinci. Niedźwiedzia, którego pysk przypomina pysk gronostaja ze znajdującego się w Muzeum Czartoryskich obrazu Dama z gronostajem. Jak podkreśla dom aukcyjny Christie's, to jeden z mniej niż 8 zachowanych rysunków renesansowego mistrza, które pozostają w prywatnych rękach (poza Royal Collection i Devonshire Collections w Chatsworth). Szacuje się, że studium głowy niedźwiedzia zostanie wylicytowane za 8-12 mln funtów. Niewykluczone więc, że zostanie pobity rekord ceny rysunku da Vinci, ustanowiony w 2001 r. za dzieło Koń i jeździec. Rysunek mierzy 7x7 cm. Wykonano go za pomocą ołówka ze srebrną końcówką (ang. silverpoint). Historię rysunku udało się prześledzić do sir Thomasa Lawrencea'a, znanego brytyjskiego malarza, który zebrał jedną z najwspanialszych kolekcji rysunków dawnych mistrzów. Wiemy, że po śmierci Lawrence'a w 1830 roku rysunek stał się własnością jego marszanda i głównego wierzyciela, Samuela Woodburna. Ten w 1860 roku sprzedał rysunek za pośrednictwem domu Christie's za 2,5 funta. W pierwszej połowie XX wieku rysunek należał do innego słynnego kolekcjonera, kapitana Normana Roberta Colville'a. Colville był m.in. posiadaczem Głowy Muzy Rafaela, sprzedanej przez Christie's w 2009 roku za ponad 29 milionów funtów. Rysunek da Vinci został pierwszy raz wystawiony publicznie w 1937 roku. Później pokazywano go w muzeach na całym świecie, w tym w Luwrze, Galerii Narodowej w Londynie czy petersburskim Ermitażu. Głowa niedźwiedzia to jedno z czterech podobnych niewielkich rysunków będących studiami zwierząt. Jeden z nich, studium kotów i psa, znajduje się w British Museum, z kolei National Galleries of Scotland może poszczycić się posiadaniem rysunku ze studium psich łap, a w nowojorskim Metropolitan Museum of Art znajdziemy studium idącego niedźwiedzia. Wszystkie rysunki powstały w pierwszej połowie lat 80. XV wieku. Rysunek Głowa niedźwiedzia został ostatecznie sprzedany za 8 857 500 funtów. « powrót do artykułu
  3. Pomimo tego, że jest milion razy mniejszy, pojedynczy neutron może wpływać na energię molekuły. Teraz fizykom z MIT i innych uczelni udało się zmierzyć wpływ neutronu na radioaktywną molekułę, co może mieć fundamentalne znaczenie dla badań nad ciemną materią czy naruszeniem symetrii. Naukowcy opracowali technikę wytwarzania i badania krótko żyjących radioaktywnych molekuł z precyzyjnie kontrolowaną liczbą neutronów. Wybrali liczne izotopy tej samej molekuły, a w każdym z nich był o 1 neutron mniej, niż w poprzednim. Następnie mierzyli energię każdej z molekuł i byli w stanie wykryć minimalne, niemal niewidoczne różnice pomiędzy nimi. Możliwość zarejestrowania takich różnic oznacza, że naukowcy będą w stanie badać radioaktywne molekuły pod kątem występowania w nich zjawisk wywoływanych przez obecność ciemnej materii lub też przyczyn naruszenia symetrii we wszechświecie. Jeśli prawa fizyki są symetryczne, a sądzimy, że są, to w wyniku Wielkiego Wybuchu powinno powstać tyle samo materii i antymaterii. Jednak fakt, że obserwujemy niemal wyłącznie materię, a antymateria to jedynie jedna część na miliard, oznacza, że coś narusza podstawową symetrię fizyki w sposób, którego nie potrafimy wyjaśnić, mówi profesor Ronald Fernando Garcia Ruiz z MIT. Teraz mamy szansę zmierzyć te naruszenia symetrii, używając przy tym ciężkich radioaktywnych molekuł, które są niezwykle czułe na zjawiska, jakich nie obserwujemy w innych molekułach. Może to nam dostarczyć odpowiedzi na najwięsze tajemnice dotyczące powstania wszechświata, dodaje. Większość jąder atomowych ma kształt sfery z równo rozłożonymi protonami i neutronami. Jednak niektóre pierwiastki radioaktywne, jak rad, mają jądra o kształcie gruszki. Protony i neutrony są w nich rozłożone nierównomiernie. Fizycy uważają, że takie zaburzenie kształtu może zwiększać naruszenie symetrii, które spowodowało, iż wszechświat składa się z materii. "Jądra pierwiastków radioaktywnych mogą pozwolić nam na obserwowanie tego naruszenia", uważa współautor najnowszych badań, Silviu-Marian Udrescu. "Problem w tym, że są one bardzo niestabilne i krótkotrwałe. Potrzebujemy więc bardzo czułych metod, które pozwolą nam na ich szybkie wytwarzania i badanie. Naukowcy umieszczali radioaktywne pierwiastki w molekule, co dodatkowo zwiększa zaburzenie symetrii. Każda z radioaktywnych molekuł składa się z co najmniej jednego radioaktywnego atomu związanego z co najmniej jednym innym atomem. Każdy z atomów otoczony jest chmurą elektronów, które tworzą pole bardzo silne elektryczne molekuły. Naukowcy uważają, że pole to może dodatkowo wzmacniać subtelne zjawiska, jak np. zaburzenie symetrii. Autorzy badań tworzą molekuły, które nie istnieją w naturze. W ubiegłym roku poinformowali u uzyskaniu monofluorku radu (RaF), radioaktywnej molekuły składającej się z atomu radu i atomu fluoru. Teraz zaczęli uzyskiwać izotopy tej molekuły, zawierające różną liczbę neutronów. Podczas swojej pracy wykorzystali urządzenie ISOLDE (Isotope mass Separator On-Line) z CERN-u. Powstaje w nim cała grupa molekuł, w tym RaF, które są oddzielane od reszty za pomocą laserów, pól elektromagnetycznych i pułapek jonowych. Następnie naukowcy badają masę molekuł, dzięki czemu poznają liczbę neutronów w jądrach radu. Następnie sortują molekuły w zależności od liczby neutronów. W ten sposób uzyskali pięć grup identycznych izotopów RaF. Izotopy w każdej z grup mają inną liczbę neutronów niż w pozostałych grupach. Następnie dokonywali pomiarów poziomów energetycznych cząsteczek. Wyobraźmy sobie molekułę, która wibruje jak dwie piłki na sprężynie. Posiada ona pewną energię. Jeśli w jednej z tych piłek zmienimy liczbę neutronów, może zmieć się poziom energetyczny. Jednak każdy z neutronów jest 10 milionów razy mniejszy niż molekuła. Więc różnice są tutaj minimalne. Szczerze mówiąc, nie spodziewaliśmy się, że za pomocą współczesnych technik będziemy w stanie je zauważyć. Ale się udało. I bardzo wyraźnie to widać, mówi Udrescu. Naukowiec porównuje czułość eksperymentu do możliwości zaobserwowania, jak Mount Everest, umieszczony na powierzchni Słońca, zmienia promień naszej gwiazdy. Dodaje, że zaobserwowanie naruszenia symetrii wymaga czułości odpowiadającej obserwacji wpływu ludzkiego włosa na zmianę promienia Słońca. Uzyskane wyniki pokazują, że radioaktywne molekuły, takie jak RaF, są niezwykle czułe na pewne zjawiska, dzięki czemu możemy badać te zjawiska. Bardzo ciężkie radioaktywne molekuły są wyjątkowe. Są wrażliwe na zjawiska, jakich nie możemy zaobserwować w innych molekułach. Jeśli więc szukamy tego, co narusza symetrię, jest spora szansa, że zauważymy to w takich właśnie molekułach, dodaje Udrescu. « powrót do artykułu
  4. Grupa badaczy z Austrii, Szwajcarii i Niemiec twierdzi, że zbudowała najmniejszy na świecie komputer kwantowy. System wykorzystujący 24 w pełni splątane kubity stworzone z uwięzionych jonów zamknięto w dwóch standardowych szafach serwerowych. Twórcy maszyny zapewniają, że jej wydajność dorównuje najszybszym obecnie komputerom kwantowym i mają nadzieję, że ich architektura ułatwi w przyszłości rozpowszechnienie się komputerów kwantowych. Ivan Pogorelov w Uniwersytetu w Innsbrucku i jego koledzy skupili się na maszynie wykorzystującej w roli kubitów splątane jony wapnia. Jony znajdują się w liniowej pułapce jonowej (pułapce Paula), która wykorzystuje dynamiczne pola elektryczne. Wewnątrz pułapki można uwięzić do 50 jonów splątanych za pomocą impulsów laserowych. Impulsy te są również wykorzystywane do zapisywania i odczytywania informacji kwantowej z poszczególnych jonów. Opracowana przez zespół architektura składa się z kilkunastu modułów na tyle kompaktowych, że mieszczą się w dwóch standardowych szafach. Każdy z modułów zamknięty jest w aluminiowym pudełku, zawierającym wszystkie komponenty niezbędne do generowania i kontrolowania światła laserowego oraz wszystkie komponenty komunikacji i zdalnej kontroli. Podczas wstępnych testów naukowcy stworzyli stan Greenbergera-Horne'a-Zeilingera zawierający 24 splątane kubity. Jony utrzymały informację kwantową bez potrzeby stosowania żadnych technik unikania błędów, a wydajność całości dorównywała większym, bardziej złożonym systemom. Twórcy modułowego komputera kwantowego zapewniają, że jest on wysoce stabilny pod względem mechanicznym, poszczególne części łatwo jest wymienić i ma minimalne wymagania jeśli chodzi o utrzymanie ruchu. Może nim zarządzać wyszkolona osoba, która nie jest ekspertem w dziedzinie komputerów kwantowych, może być tez udostępniany w chmurze obliczeniowej. Pogorelov i jego zespół pracują teraz nad rozbudowaniem swojej maszyny do 50 kubitów. « powrót do artykułu
  5. Doktor Monika Koperska, specjalistka chemii w konserwacji sztuki, teorii barw oraz degradacji. Zapalona popularyzatorka nauki i autorka programów popularnonaukowych. Współzałożycielka Stowarzyszenia Rzecznicy Nauki. Pracę magisterską napisała z fotodegradacji barwników naturalnych, a doktorat poświęciła problemom zatrzymania procesów degradacji jedwabiu na przykładzie chorągwi z Wawelu. Ciągle pełna energii i pomysłów, zgodziła się nam opowiedzieć o swojej pasji, przemyśleniach i planach na przyszłość. Mariusz Błoński: Widziałem na Pani stronie, że jest Pani doktorem nauk chemicznych, specjalistką w chemii konserwatorskiej, absolwentką studiów w Krakowie i Lille. Współpracuje Pani z wieloma instytucjami, z Fundacją Rozwoju Edukacji, z Centrum Nauki Kopernik, z Fundacją Adamed SmartUP... proszę mi powiedzieć, bardziej jest Pani naukowcem czy popularyzatorką nauki? Monika Koperska: (śmiech) Tak nie można, bo to jest strasznie psychologiczne podejście. Bo ja dzisiaj się obudziłam i właśnie o tym myślałam. Większość naukowców zdecydowanie nie jest popularyzatorami nauki, prawda? Zajmują się swoją dziedziną i nie próbują wychodzić do ludzi z tym. Ok, ok. Mam coś takiego, że dźwięczą mi w głowie od czasu do czasu słowa "Tako rzecze Zaratustra". Tam owce powiedziały, że Zaratustra nie jest już uczonym. Natomiast przypomnijmy sobie, że w statucie każdego uniwersytetu i większości uczelni wyższych w Polsce jest wpisane popularyzowanie nauki do społeczeństwa. Z tego punktu widzenia, formalnie, każda osoba zatrudniona na stanowisku badawczym na takim uniwersytecie ma obowiązek popularyzowania nauki. To, że to nie jest praktykowane i to nie jest zbyt trendujące wśród naukowców, może być powiązane z różnymi czynnikami. Może wynikać z uwarunkowaniami naukowców, być powiązane z ich osobowościami. Natomiast my jako naukowcy teoretycznie mamy narzuconą przez uniwersytet misje, tego, żeby nie tylko robić badania i popychać naukę do przodu, ale też żeby komunikować nasze wynalazki i odkrycia do szerszego społeczeństwa. O tym się nie mówi, ale tak właśnie jest. Ja staram się to przypominać. Zresztą, stowarzyszenie, którego jestem prezesem, Stowarzyszenie Rzecznicy Nauki, zrzesza 73 osoby z różnych uniwersytetów w Polsce i to są naprawdę topowi naukowcy i osoby bardzo ambitne, którym chce się popularyzować, które umieją popularyzować i robią to sami lub robimy to wspólnie, jako grupa. Wracając do pytania, czy jestem bardziej naukowcem, czy jestem bardziej popularyzatorem... Myślę, że cały czas jestem tym samym, kim byłam na samym początku. Gdy pracowałam tylko przy chemii konserwacji sztuki i mało popularyzowałam, to popularyzowałam tajniki chemii rozmawiając z konserwatorami sztuki. Musiałam im tłumaczyć, na czym polegają rzeczy, które w laboratorium podpatrujemy różnymi instrumentami do bardziej wnikliwej analizy. Stąd też wydaje mi się, że ten stopień popularyzacji może w nauce pokazywać się na różnym etapie i w różnym wymiarze. W naukach interdyscyplinarnych on jest potrzebny do pracy codziennej, a popularyzacja do ogółu społeczeństwa nie jest  wymagana do robienie nauki na co dzień, chociaż zdążają się wyjątki w postaci Citizen Science, gdzie społeczeństwo jest już angażowane na etapie zbierania danych i prowadzenia eksperymentów. Rozumiem. Ale fakt, tego trochę właśnie brakuje, żeby trafiać z przekazem naukowym do zwykłego zjadacza chleba. Z drugiej strony nie jest to łatwe i na pewno wymaga odpowiedniej osobowości od naukowca. Tak, wymaga. Wymaga odpowiedniej osobowości, wymaga chęci, wymaga rozłożenia sobie priorytetów, wymaga uświadomienia tego, co nam da popularyzacja i co nam daje nauka. Ja widzę fun w jednym i drugim. I stąd się tak delokalizuję jak elektron, w tych zadaniach. I faktycznie mam takie dni, że czuję się bardziej naukowcem, albo czuję się bardziej popularyzatorem nauki. Chociaż i tak uważam, że cały czas jestem jednym i drugim. Może po prostu bardziej aktywnie pokazuję obie strony tego zawodu, jakim jest bycie naukowcem. « powrót do artykułu
  6. Europejski projekt budowy wielkiego wykrywacza fal grawitacyjnych znalazł się o krok bliżej realizacji. European Strategy Forum on Research Infrastructures (ESFRI), które doradza rządom Unii Europejskiej odnośnie priorytetów badawczych, wpisało Einstein Telescope, bo tak się ma nazywać laboratorium, na mapę drogową projektów naukowych, które są na tyle zaawansowane, że warto, by nadal się rozwijały. Einstein Telescope ma kosztować 1,9 miliarda euro. Twórcy projektu muszą jeszcze przekonać rządy do swojego pomysłu. Wpisanie na listę ESFRI nie jest obietnicą finansowania, ale pokazuje, że istnieje wola kontynuowania projektu, mówi współprzewodniczący komitetu kierującego Einstein Telescope, Harald Lück w Uniwersytetu im. Leibniza w Hanowerze. Działania ESFRI zostały z zadowoleniem przywitane przez naukowców USA, którzy mają nadzieję, że pomoże to w realizacji ich własnych planów budowy pary wykrywaczy większych niż Einstein Telescope. Amerykański projekt nosi nazwę Cosmic Explorer. Myślę, że to dobry czas, by rozpocząć tego typu budowę, mówi David Reitze, dyrektor LIGO (Laser Interferometer Gravitational-Wave Observatory), obserwatorium, w którym wykryto pierwsze fale grawitacyjne. Wykrywacze fal grawitacyjnych rejestrują niewielkie zaburzenia przestrzeni wywoływane przez masywne obiekty, jak np. czarne dziury, które krążą wokół siebie i w końcu się łączą. Wykrywacze takie to olbrzymie urządzenia. Amerykański LIGO składa się z pary interferometrów znajdujących się w stanach Louisiana i Washington. Każdy z nich ma kształt litery L, a każde z ramion ma 4 kilometry długości. Porównując długość ramion z olbrzymią dokładnością, można stwierdzić, czy doszło do jej zmiany w wyniku przejścia fali grawitacyjnej. Z kolei europejski wykrywacz Virgo, który znajduje się we Włoszech, ma ramiona o długości 3 km. Naukowcy chcieliby jednak zbudować większe instrumenty. LIGO i Virgo, do których niedawno dołączył japoński KAGRA, są w stanie wykrywać połączenia czarnych dziur z odległości ponad 10 miliardów lat świetlnych. Gdyby jednak zbudować 10-krotnie bardziej czułe detektory, moglibyśmy rejestrować takie wydarzenia w całym obserwowalnym wszechświecie, na przestrzeni 45 miliardów lat świetlnych. Stąd też niezwykle ambitne plany. Amerykański Cosmic Explorer ma składać się z jednego lub więcej interferometrów w kształcie litery L, której ramiona mają mieć po 40 km długości. Z kolei projekt Einsten Telescope zakłada budowę 6 interferometrów w kształcie litery V, o ramionach długości 10 kilometrów każde. Mają być one ułożone na planie trójkąta równobocznego, z 2 interferometrami w każdym z rogów. Fizycy z USA i Europy chcą, by ich detektory powstały do połowy lat 30. XXI wieku. Umieszczenie Einstein Telescope na liście ESFRI to krok naprzód w realizacji europejskich planów. W ciągu najbliższych 3–4 lat pomysłodawcy Einstein Telescope powinni przedstawić bardziej szczegółowy plan i raport techniczny. Muszą też w tym czasie zdobywać poparcie dla swojego pomysłu zarówno ze strony polityków, jak i środowisk naukowych, angażując do współpracy kolejnych specjalistów. Obecnie projekt Einstein Telescope może liczyć na poparcie z Belgii, Włoch, Holandii, Polski i Hiszpanii. Einstein Telescope, jeśli zostanie zrealizowany, może przybrać kształt podobny do CERN-u. « powrót do artykułu
  7. W ostatnim czasie bardzo modne stało się ustawianie uli w miastach. Jednak to nie jest dobry pomysł, Doktor Jacek Wendzonka z Wydziału Biologii Uniwersytetu Adama Mickiewicza ostrzega, że inwazja pszczoły miodnej w miastach zagraża dzikim pszczołom. A to one zapylają większość roślin. Problem już widać np. na Cytadeli w Poznaniu. Na tak ograniczonym obszarze to jest jak potop szwedzki, mówi uczony serwisowi Uniwersyteckie.pl. Naukowcy apelują do władz samorządowych polskich miast, by nie zwiększały liczby uli w mieście. Pszczoły wymierają, jednak proces ten nie dotyczy pszczoły miodnej. Dotyka on właśnie dzikich pszczół, w tym np. murarki. Zakładanie pasiek w miastach tylko pogłębia problem. Na terenach miejskich jest bowiem ograniczona liczba pożywienia, a olbrzymia liczba pszczół miodnych – w jednym tylko ulu może mieszkać kilkadziesiąt tysięcy osobników – stanowi groźną konkurencję dla dzikich pszczół. Dlatego też w czerwcu uczeni skupieni wokół inicjatywy „Nauka dla Przyrody” wystosowali do władz Gdańska list w tej sprawie. Doktor Wendzonka mówi, że na terenie Cytadeli – największej enklawy zieleni w centrum Poznania – żyje około 100 gatunków dzikich pszczół. Znalazły się one w poważnych tarapatach od czasu, gdy w Cytadeli postawiono ule. Problem jest tym większy, że wiele roślin uprawnych, jak np. lucerna, zapylanych jest przez samotnie żyjące pszczoły, a nie przez tworzącą roje pszczołę miodną. Najważniejsza jest naturalna bioróżnorodność i istnienie wielu gatunków. Tymczasem modne miejskie ule zagrażają tej bioróżnorodności. « powrót do artykułu
  8. Planety swobodne to obiekty, które nie krążą wokół żadnej gwiazdy. Międzynarodowy zespół astronomów – za pomocą Kosmicznego Teleskopu Keplera – odkrył cztery takie ciała niebieskie. W badaniach brał udział dr Radosław Poleski z Obserwatorium Astronomicznego Uniwersytetu Warszawskiego. Planety swobodne są jednymi z najbardziej tajemniczych obiektów astronomicznych. Przemierzają samotnie Drogę Mleczną, nie krążąc wokół żadnej gwiazdy, dlatego bardzo trudno je wykryć. Najlepszą metodą ich wykrywania jest mikrosoczewkowanie grawitacyjne, wynikające z ogólnej teorii względności (OTW) Alberta Einsteina. Dr Radosław Poleski z UW był zaangażowany w odkrycie czterech planet swobodnych. Praca międzynarodowego zespołu badaczy została opublikowana w Monthly Notices of the Royal Astronomical Society. Rzadkie zjawisko Zgodnie z OTW zjawisko mikrosoczewkowania zachodzi, gdy światło od odległego źródła uginane jest przez bliższy obiekt zwany soczewką. Masa soczewki zakrzywia przestrzeń wokół niej, co powoduje ugięcie promieni świetlnych, w efekcie czego można zaobserwować pojaśnienie źródła. Jeśli soczewką jest gwiazda, to pojaśnienie trwa od kilku do nawet około stu dni, jeśli zaś soczewką jest planeta – od kilku godzin do paru dni. Mikrosoczewkowanie grawitacyjne jest bardzo rzadkim zjawiskiem. Jak przewidział już w latach 80. prof. Bohdan Paczyński, mikrosoczewkowanie powoduje zaledwie jedna na około milion gwiazd. Planety swobodne powodują mniej niż jeden procent mikrosoczewek. Aby wykryć jak największą liczbę zjawisk mikrosoczewkowania, trzeba stale obserwować bardzo wiele gwiazd, np. gęste pola gwiazdowe. Dane Keplera Badania opublikowane w Monthly Notices of the Royal Astronomical Society opierają się na danych zebranych w 2016 roku przez satelitę Kepler w ramach kampanii obserwacyjnej, której celem było wykrywanie mikrosoczewek. Przez ponad dwa miesiące satelita obserwował centralne zgrubienie Drogi Mlecznej, wykonując co 30 minut zdjęcie obszaru zawierającego miliony gwiazd. Naukowcy znaleźli w danych Keplera 22 krótkie zjawiska mikrosoczewkowania, które zostały również wykryte przez teleskopy naziemne grup OGLE i KMTNet. Grupa OGLE z Obserwatorium Astronomicznego Uniwersytetu Warszawskiego – pod kierunkiem prof. Andrzeja Udalskiego – bada zjawiska mikrosoczewkowania grawitacyjnego od prawie 30 lat, wykorzystując teleskop w obserwatorium Las Campanas w Chile. Na podstawie zebranych danych grupa OGLE już kilka lat temu przedstawiła jedną z pierwszych analiz częstości występowania planet swobodnych. Obserwacje naziemne krótkich zjawisk mikrosoczewkowania są jednak utrudnione ze względu na brak możliwości ich prowadzenia w ciągu dnia, a także wpływ pogody. Te ograniczenia nie wpływają jednak na obserwacje prowadzone przez teleskopy satelitarne takie jak Kepler. Dzięki temu badacze wykryli nie tylko 22 zjawiska mikrosoczewkowania widoczne z Ziemi, lecz także dodatkowe cztery bardzo krótkie zjawiska, które najprawdopodobniej zostały spowodowane przez planety swobodne. Świetlik wśród świateł samochodów Satelita Kepler nie był zaprojektowany do wykrywania planet mikrosoczewkowych ani do obserwacji gęstych obszarów gwiazd. Skierowaliśmy starszawy i niedomagający teleskop z nieostrym wzrokiem na jeden z najgęstszych rejonów nieba, gdzie tysiące gwiazd zmienia swoją jasność oraz przesuwają się tysiące asteroid – opowiada dr Iain McDonald z brytyjskiego Open University, który kierował badaniami. Z tej kakofonii próbujemy wyłuskać charakterystyczne pojaśnienia powodowane przez planety swobodne i mamy tylko jedną szansę, by odkryć każdy z sygnałów. To tak, jakbyśmy próbowali zobaczyć świetlika wśród świateł samochodów na autostradzie i używali do tego aparatu w smartfonie – porównuje astronom. Współpraca z NASA Dr Radosław Poleski obecnie uczestniczy w planowaniu obserwacji mikrosoczewkowych, które będzie wykonywał Kosmiczny Teleskop Nancy Grace Roman, budowany przez agencję kosmiczną NASA. Ten teleskop będzie przełomem w badaniach planet swobodnych, ponieważ pozwoli nam wykrywać obiekty o dużo mniejszych masach niż jest to możliwe teraz – zapowiada astronom. Mam nadzieję, że razem z teleskopem Roman będzie obserwował także satelita Euclid przygotowywany przez Europejską Agencję Kosmiczną. Połączenie ich możliwości obserwacyjnych pozwoliłoby na bezpośrednie zmierzenie mas wielu planet swobodnych, a tym samym lepsze zrozumienie właściwości tych niezwykłych obiektów – wyjaśnia dr Poleski. « powrót do artykułu
  9. Profesor Vikash Gayah z Pennsylvania State University próbuje usprawnić ruch w mieście. Uczony uważa, że można to zrobić poprzez likwidację możliwości skrętu w lewo na niektórych skrzyżowaniach. Jednak określenie miejsc, w których powinno się zabronić skręcania w lewo, jest niezwykle trudne. Ostatnio opracował nową metodę, która ułatwia wybór takich miejsc. Wszyscy mamy doświadczenia z długotrwałym oczekiwaniem na skrzyżowaniu, aż będziemy mogli skręcić w lewo. A jeśli już wolno skręcać, to trzeba zatrzymać ruch w innych kierunkach, przez co całe skrzyżowanie jest mniej produktywne. Ze skrętem w lewo wiążą się też poważniejsze wypadki, szczególnie z udziałem pieszych. Chcemy wyeliminować skręty w lewo, by stworzyć bezpieczniejsze skrzyżowanie o większej przepustowości, stwierdza uczony. Gdy na niektórych skrzyżowaniach zabronimy skrętu w lewo, kierowcy będą musieli znaleźć alternatywne drogi dotarcia do celu. Może to czasem oznaczać dłuższą podróż, ale Gayah uważa, że zwiększenie przepustowości ruchu w mieście zrekompensuje ten dodatkowy dystans. Problem jednak w tym, by dobrze wybrać skrzyżowania, na których chcemy wprowadzić taki zakaz. Jeśli mamy do rozważenia zaledwie 16 skrzyżowań i na każdym z nich możemy pozwolić, bądź nie pozwolić na skręt w lewo, to już tutaj jest 65 000 możliwych konfiguracji. A wszystko staje się jeszcze bardziej skomplikowane, jeśli zaczniemy rozważać wpływ ruchu na jednym skrzyżowaniu, a ruch na skrzyżowaniu następnym. Robi się z tego tyle możliwości, że nigdy możemy nie znaleźć tego najlepszego, stwierdza uczony. Metoda Gayaha korzysta z algorytmów heurystycznych, które niecona skróty poszukują rozwiązania. Nie gwarantują one jednak znalezienie najlepszego z możliwych. Zgadujemy. Uczymy się z tego, co odgadliśmy i następnym razem zgadujemy już lepiej. Z czasem możemy w ten sposób bardzo się zbliżyć do optymalnego rozwiązania, mówi. Z artykułu opublikowanego na łamach Transportation Research Record dowiadujemy się, że Gayah połączył dwa algorytmy. Pierwszy z nich, algorytm PBIL (population-based incremental learning), służy do próbkowania różnych konfiguracji skrzyżowań i wyboru najlepszych z nich. Następnie metodą optymalizacji bayesowskiej uczony analizuje wybrane konfiguracje, by sprawdzić, jak ograniczenia na konkretnych skrzyżowaniach wpływają na ruch na skrzyżowaniach sąsiednich. Zamiast zaczynać od optymalizacji bayesowskiej, która ma rozważać przypadkowo wybrane konfiguracje, dajemy algorytmowi najlepsze wyniki z PBIL. Pierwsza metoda tworzy nam punkt startowy, druga go udoskonala. Obecnie uczony pracuje ze zgeneralizowaną siecią drogową. Nie można wziąć najlepszej konfiguracji dla Nowego Jorku i zastosować jej do San Francisco. Za to zgeneralizowaną sieć można dostosować do każdego miejsca, zapewnia. « powrót do artykułu
  10. W piśmie Human Evolution opublikowano wyniki 10-letnich badań nad drzewem genealogicznym Leonarda da Vinci. Udało się ustalić drzewo dla rodziny da Vinci (później Vinci) od protoplasty Michele, poprzez jego prapraprawnuka Leonardo aż po żyjących do dzisiaj 14 męskich krewnych. Dzięki tytanicznej pracy Alessandro Vezzosi i Agnese Sabato opisali 690 lat rodziny i zaprezentowali drzewo genealogiczne rozciągające się na 21 pokoleń. Praca ta uzupełnia luki i poprawia błędy w dotychczasowych badaniach nad genealogią jednego z najwybitniejszych naukowców i artystów wszech czasów. Badacze dostarczy też pierwszych pełnych danych na temat dokumentacji rejestrującej obecność rodziny da Vinci na przestrzeni siedmiu wieków. Zajęli się przy tym jedynie głównymi liniami rodziny. Obecnie pracują nad liniami pobocznymi. W naszej pracy udokumentowaliśmy również cztery główne męskie linie rodziny rozpoczynające się od Domenico i rozciągające po wiek XX, czytamy w opublikowanej pracy. Leonardo nie miał dzieci, miał za to wielu przyrodnich braci i to właśnie bezpośredni potomkowie Domenico żyją do dzisiaj. Odnośnie Domenico, szczególną uwagę zwróciliśmy na niepublikowane wcześniej dane, odnoszące się do jego dzieci i jego pogrzebu, zawarte w dokumencie „donatio moris causa” (podarunek w obliczu zbliżającej się śmierci) z 1544 roku oraz z jego testamentu z 1549 roku, który był cytowany we wcześniejszych badaniach, ale nie rozumiano go właściwie. Nazwa strumienia Vincio i miejsca urodzin Leonarda wzięła się ze średniowiecznej łacińskiej nazwy wierzby vincus, vinci. W XIII wieku przydomek da Vinci oznaczał miejsce pochodzenia lub zamieszkania. Jednak w przypadku przodków Leonarda przerodził się w nazwisko. Z XIII-wiecznych dokumentów dowiadujemy się, ze w tym czasie aktywnych było wielu notariuszy „z Vinci”, jednak najstarszy udokumentowany przodek Leonarda, Michele Da Vinci, raczej nie był żadnym z nich. Późniejsze dokumenty wspominają o nim jako o „ser Michele”, jednak najprawdopodobniej zaczęto nazywać go tak po tym, jak jego rodzina zdobyła poważanie. Nawet jego własny syn, Guido, nie nadaje ojcu przydomka „ser”. Pierwszy dokument, w którym czytamy o „ser Michele” pochodzi z 1339 roku, długo po śmierci Michele. Jak zatem wyglądała linia genealogiczna Leonarda? Protoplastą rodu był Michele Da Vinci, który zmarł przed 15 listopada 1331 roku. Prawdopodobnie urodził się w XIII lub na początku XIV wieku. Miał jednego syna, Guido di Michele, który zmarł przed rokiem 1360. Guido miał dwóch synów, a nas interesuje Piero. Pierwsze dokumenty, w których jest wymieniony pochodzą z 1360 roku. Wiemy, że Piero di Guido był sędzią i notariuszem. Zmarł w 1417 roku. Miał jednego syna, Antonia oraz córkę Paolę, odnośnie której brak dokumentów. Antonio di Piero, urodzony około roku 1371/72, ożenił się z Lucią di ser Piero di Zoso da Bacchereto, notariuszką z Florencji i córką posiadaczy ziemskich. Jednym z ich czterech dzieci był Piero Frosino, ojciec Leonarda. Tutaj mamy już do czynienia z zamożną rodziną. Antonio di Piero był kupcem w Maroku i Hiszpanii, prokuratorem, rolnikiem i notariuszem. Posiadał domy we Florencji, Barcelonie i Vinci. W 1426 roku urodził się Piero Frosino di Antonio, ojciec Leonarda. Piero miał w sumie 4 żony, z którymi spłodził 19 dzieci. Jednak Leonardo nie był żadnym z nich. Był on owocem romansu Piero i Catariny. Tożsamość Catariny skrywa tajemnica. Pomimo kilkudziesięciu lat badań, niewiele o niej wiemy. Vezzosi i Sabato stwierdzają, że jedyna informacja, która może być więcej niż hipotezą, wskazuje, że Catarina, matka Leonarda, jest tożsama z „niewolnicą Catariną”, należącą do Vanniego di Niccolo di ser Vanni, o której wspomina sam Piero w testamencie Vanniego z 1449 roku. Możemy więc przypuszczać, że Piero, który spisywał testament Vanniego, poznał wówczas "niewolnicę Catarinę", czyli Catarinę di Vanni i nawiązał z nią romans. Vanni w swoim testamencie przekazywał Caterinę swojej żone Agnoli. Vanni zmarł we Florencji 4 października 1451 roku. Leonardo di ser Piero urodział się zaś 15 kwietnia 1452 roku około godziny 22:30. Z wpisu w dokumentach katastralnych z 1458 roku widnieje informacja dotyczący liczby osób w rodzinie. Czytamy w nim m.in. Lionardo, nieślubny syn ser Piero, urodzony z Chateriny, która od pięciu lat jest żoną Achattabrigha di Piero del Vacca z Vinci. Jednym z licznych braci Leonarda był młodszy o 33 lata Domenico, którego potomkowie żyją do dzisiaj. « powrót do artykułu
  11. Jeszcze do niedawna roboty przemysłowe wykorzystywane były tylko przez największe, rozpoznawalne na rynku marki. Jednak dynamiczny rozwój tego segmentu sprawił, że roboty współpracujące coraz częściej używane są w małych i średnich przedsiębiorstwach. Czym są coboty? Coboty często nazywa się robotami kolaborującymi lub współpracującymi. Są to zaawansowane maszyny, przy pomocy których procesy produkcyjne w firmie zostają zautomatyzowane. Dzięki nim możliwe jest ograniczenie liczby pracowników. Coboty stanowią ponadto znacznie bezpieczniejsze rozwiązanie od robotów przemysłowych. W przeciwieństwie do nich są bowiem dużo lżejsze, mobilne i wyróżniają się kompatybilnością oraz łatwością obsługi. Roboty współpracujące mają wbudowane czujniki i systemy bezpieczeństwa i z łatwością można dostosować je do zmieniających się potrzeb. Łatwo zmienić ich funkcję, programując i zmieniając narzędzia. Mogą być wykorzystywane w dowolnej branży przy wykonywaniu nie tylko monotonnych czynności, ale także tych bardziej skomplikowanych. Sprawdzą się nie tylko w fabrykach, ale także ośrodkach rehabilitacji, a nawet kuchniach. Coboty firmy Universal Robots Duński producent cobotów Universal Robots opracował technologię dostępną dla małych i średnich firm. Roboty przemysłowe, przeznaczone do delikatnej współpracy z ludźmi, są znacznie lżejsze i tańsze od swoich poprzedników. Wyposażono je w szereg funkcji, co sprawia, że zakres ich zastosowań jest obecnie ogromny. W ofercie firmy znajdują się również roboty przeznaczone do zadań o dużej ładowności i obsługi ciężkich materiałów. Produkty duńskiej marki wyróżniają się lekkością i tym, że bez problemu da się je przesuwać i przestawiać. Coboty można bez trudu zaangażować do innej części procesu produkcyjnego. Nawet osoby niedoświadczone w programowaniu poradzą sobie z ich obsługą. Ta jest bowiem intuicyjna – uruchomienie i wprawienie ramienia w ruch trwa jedynie kilka minut. Dlaczego warto zainwestować w roboty przemysłowe? Roboty przemysłowe duńskiego producenta odciążą pracowników od konieczności wykonywania powtarzających się, monotonnych czynności, którzy mogą w tym czasie zająć się bardziej kreatywną pracą. Odgrywa to ogromną rolę w przypadku braków kadrowych. Zaletą tego rozwiązania jest również to, że coboty zwiększają bezpieczeństwo pracy, gdyż dzięki wbudowanym funkcjom bezpieczeństwa nawet przebywający w ich pobliżu pracownicy nie są narażani na wypadki. W małej i średniej firmie roboty przemysłowe pozwalają na obsługę różnych stanowisk – wystarczy je tylko przestawić. Współpracujące automaty są ponadto idealnym sposobem na podniesienie jakości i poziomu wydajności. Co za tym idzie powstaje optymalizacja procesu produkcyjnego bez konieczności zwiększania liczby pracowników. Niewielkie wymiary cobotów pozwalają na wykorzystanie nawet w małych przestrzeniach. Ich niewielkie wymiary pozwalają na wykorzystanie nawet w małych przestrzeniach. Coboty nie mają dużych wymagań pod względem zużycia energii elektrycznej, nie generują więc w czasie użytkowania znacznych kosztów. Nieograniczone zastosowanie robotów współpracujących pozwala na rozwijanie automatyzacji w każdym przedsiębiorstwie. Coboty nowej generacji są dostępne cenowo dla każdej firmy. Ich wysoka wydajność sprawia, że inwestycja szybko się zwraca. Dzięki możliwościom, jakie oferują, każda firma ma szansę na zwiększenie produktywności. « powrót do artykułu
  12. O mięśniach Kegla i ich ćwiczeniu najczęściej słyszymy w kontekście udanego życia seksualnego – mocniejszych orgazmów i satysfakcji płynącej z penetracji. Pełnią jednak także ważną rolę przy oddawaniu moczu czy porodzie; posiadanie wytrenowanych i elastycznych mięśni zapobiega takim problemom jak nietrzymanie moczu. Stanowi także element profilaktyki pęknięcia krocza podczas porodu. W dodatku nie tylko kobiety muszą ćwiczyć mięśnie Kegla – mężczyźni również powinni o nie zadbać. Jednak gdzie dokładnie się one znajdują? Jak sprawdzić, czy ćwiczymy odpowiednie mięśnie? Mięśnie Kegla – jak sprawdzić, gdzie są? By prawidłowo ćwiczyć, musimy najpierw dowiedzieć się, gdzie są mięśnie Kegla. Można to zrobić w bardzo prosty sposób, wstrzymując strumień podczas oddawania moczu. Wyczuwalne jest wówczas napinanie mięśnia łonowo-guzicznego – czyli właśnie mięśni Kegla. Ich trenowanie odbywa się na podobnej zasadzie. Warto jednak zaznaczyć, że nie powinno się wstrzymywać strumienia moczu zbyt często. Może to bowiem prowadzić do gromadzenia się bakterii w niedostatecznie opróżnionym pęcherzu, a w rezultacie – do stanów zapalnych dróg moczowych. Innym sposobem pozwalającym sprawdzić, gdzie znajdują się mięśnie Kegla, jest włożenie dwóch palców do pochwy (podobnie jak przy umieszczaniu w niej tamponu), a następnie napięcie mięśni. W ten sposób można łatwo wyczuć ich zaciskanie się wokół palców. Z początku wrażenie to może być dość słabe, jednak z czasem, w miarę wykonywania ćwiczeń, mięśnie ulegną wzmocnieniu, a ucisk będzie mocniejszy. Mięśnie Kegla – anatomia a technika ćwiczeń Mięśnie Kegla w istocie są dużym, płaskim mięśniem, rozpościerającym się w miednicy na podobnej zasadzie, co przyczepiona do żeber przepona. To właśnie dlatego proste ćwiczenie polegające na jego naprzemiennym napinaniu i rozluźnianiu, wpływa na tak wiele aspektów naszego zdrowia. Podczas ćwiczeń mięśni dna miednicy najważniejsze jest zwrócenie uwagi na to, by przy ich napinaniu nie kurczyć również mięśni brzucha i pośladków, jak również nie wstrzymywać oddechu - cały czas należy normalnie, miarowo oddychać. Podstawowa forma ćwiczeń mięśni Kegla polega na położeniu się z lekko rozchylonymi nogami lub stanięciu w rozkroku, a następnie napinaniu ich na kilka sekund i rozluźnianiu. Początkowo można wykonywać dwie lub trzy serie ćwiczeń po pięć powtórzeń, z czasem jednak zwiększając czas napięcia mięśni oraz liczbę serii. Ćwiczenie z kulkami gejszy Kurczenie i rozluźnianie to nie jedyne techniki, do których musi się ograniczać ćwiczenie mięśni Kegla - przyrządy takie jak kulki gejszy czy gadżety erotyczne w rodzaju jajeczek dopochwowych mogą być tutaj znakomitą pomocą. Wystarczy umieścić je głęboko w pochwie (podobnie jak tampon), a następnie... po prostu się ruszać. Mięśnie same będą się wówczas napinać i unosić, pracując bez konieczności podejmowania przez nas żadnych działań. Oczywiście kulki muszą być odpowiednio dobrane. Fizjoterapeuci zalecają stosować większe i lżejsze modele w przypadku słabo wyćwiczonych mięśni. Z czasem można zacząć korzystać z takich, które są mniejsze oraz cięższe. Kulki gejszy od n69.pl dostępne są w wielu wersjach o różnej masie oraz średnicy - dzięki temu każdy łatwo dobierze najlepszy dla siebie model lub zestaw. Mięśnie Kegla u mężczyzn Jak wcześniej wspomnieliśmy, mięśnie Kegla powinny ćwiczyć wszystkie osoby, niezależnie od płci - zlokalizowane są one u każdego człowieka między kością ogonową a łonową, okalając odbyt oraz pochwę lub podstawę członka i cewkę moczową. Każdy może również korzystać ze specjalnych gadżetów - tzw. kulki gejszy dla mężczyzn umieszcza się w odbycie, co ma dodatkową zaletę w postaci prozdrowotnego masażu prostaty. U każdej płci mięśnie dna miednicy ćwiczy się w bardzo podobny sposób, odnosząc podobne rezultaty w postaci silniejszego ukrwienia narządów płciowych oraz mocniejszych orgazmów, jak również zmniejszonego ryzyka problemów z oddawaniem moczu. « powrót do artykułu
  13. Członkowie Polskiem Misji Archeologicznej w Sudanie odkryli na stanowisku Old Dongola ruiny prawdopodobnie największego chrześcijańskiego kościoła w tym regionie. Jeśli była to katedra, to zapewne znajdowała się tutaj siedziba arcybiskupa w nubijskim królestwie Makuria. Artur Obłuski, dyrektor ekspedycji, mówi, że najpierw dzięki technikom obrazowania zauważono dużą pustą przestrzeń pod cytadelą. Nie spodziewaliśmy się znaleźć tutaj kościoła, a raczej plac, który mógł być wykorzystywany do wspólnych modlitw, stwierdza uczony. Dotychczas za miejscową katedrę uznawano odkryty wcześniej kościół poza cytadelą. Jednak teraz może się to zmienić. Dotychczas wykopaliska ujawniły dwie ściany apsydy udekorowane malowidłami z monumentalnymi figurami, a na południowym-wschodzie kopułę przykrywającą dużym grób. Obłuski mówi, że budynek prawdopodobnie miał 26 metrów szerokości i był wysokości 3-piętrowego domu. Szerokość samej apsydy wynosi 6 metrów. Sporym zaskoczeniem było znalezienie grobu na terenie kościoła. Obłuski przypomina, że w latach 60. ubiegłego wieku w nubijskim mieście Faras odkryto katedrę. Znajdowała się ona w centrum cytadeli, a w jej wschodniej części znajdował się grób z kopułą. Pochowano w nim biskupa. Dlatego też polscy archeolodzy przypuszczają, że odkryty przez nich kościół to katedra, w której pochowano arcybiskupa. Dongola była kwitnącym chrześcijańskim miastem aż do XIV wieku. Miasto zostało podbite przez muzułmanów. Polscy archeolodzy pracują w okolicy od 1964 roku, a w 2018 roku Unia Europejska przyznała im grant w wysokości 1,5 miliona euro. Celem grantu jest zbadanie początków chrześcijańskiej Dongoli i przedkolonialnych społeczności Afryki. « powrót do artykułu
  14. Trwają prace nad polskim mikrosatelitą obserwacyjnym EagleEye. Jego wyniesienie na niską orbitę okołoziemską planowane jest na 2023 rok. Ma on zapewnić wysokiej rozdzielczości obrazy Ziemi, może być też prekursorem przyszłej konstelacji satelitów tego typu. Nad projektem pierwszego polskiego mikrosatelity obserwacyjnego EagleEye pracują Creotech Instruments S.A. (lider konsorcjum), Scanway Sp. z o.o. oraz Centrum Badań Kosmicznych PAN. Rozpoczęto już dialog techniczny z potencjalnymi dostawcami rakiet oraz usługi wyniesienia, która ma zapewnić satelicie optymalną orbitę operacyjną – informują przedstawiciele Creotech Instruments S.A. w prasowym komunikacie. EagleEye to 50 kilogramowy satelita oparty na platformie mikrosatelitarnej HyperSat, która opracowywana jest przez inżynierów Creotech Instruments od 2017 roku w ramach programu finansowanego przez Narodowe Centrum Badań i Rozwoju (NCBR). Platforma ta uzbrojona zostanie w teleskop optyczny, który opracowywany jest przez polską firmę – Scanway Sp. z o.o., podsystemy komputera przygotowywane są przez Centrum Badań Kosmicznych PAN. Wspomniany teleskop umożliwi satelicie pozyskanie zdjęć o rozdzielczości rzędu jednego metra w pasmach widzialnym i podczerwonym, a dzięki zastosowaniu algorytmów bazujących na sztucznej inteligencji, możliwe będzie uzyskanie jeszcze wyższej jakości zdjęć. Zastosowanie innowacyjnych rozwiązań projektowych pozwoli m.in. na stabilną pracę termiczną całego teleskopu w warunkach kosmicznych. To dzięki temu możliwe będzie spełnienie wysokich, międzynarodowych wymagań co do poziomu jakości zdjęć, pozyskiwanych z teleskopu. Obecnie teleskop jest w końcowej fazie prac projektowych i zostanie wyprodukowany i przetestowany do końca bieżącego roku – czytamy w prasowym komunikacie. We wrześniu br. planowane jest zamknięcie prac nad profilem misji satelity EagleEye. Podjęto już decyzję, że w ramach misji przetestowany zostanie nie tylko sposób pozyskiwania zdjęć o rozdzielczości poniżej 1 metra, ale również przeprowadzone zostaną manewry orbitalne. Platforma HyperSat dostosowana została do współpracy z systemem małych silników rakietowych, które są opracowywane obecnie w Łukasiewicz – Instytucie Lotnictwa, we współpracy z Creotech Instruments S.A. W ramach projektu EagleEye powstają też procedury testowe przygotowywane przez Centrum Badań Kosmicznych PAN, które mają umożliwić w przyszłości seryjną produkcję satelitów tego typu i wdrożenie ich w konstelacjach zobrazowania Ziemi. Centrum rozbudowuje także swoją infrastrukturę testową. Wraz z wysłaniem w 2023 roku na orbitę satelity EagleEye, polski przemysł i instytucje naukowe sektora kosmicznego uzyskają pełne zdolności do produkcji i wdrażania kompletnych jednostek mikrosatelitarnych (o masie 10-100 kg) przeznaczonych do obserwacji Ziemi – podaje Creotech Instruments S.A.. Projekt EagleEye prowadzony jest zgodnie z wymaganiami jakościowymi opracowanymi przez NASA, wdrożonymi przez Europejską Agencję Kosmiczną i według norm ECSS (European Cooperation for Space Standardization). Projekt satelity EagleEye realizowany jest w ramach Programu Operacyjnego Inteligentny Rozwój i współfinansowany ze środków Europejskiego Funduszu Rozwoju Regionalnego. Jego realizacja rozpoczęła się w połowie 2020 roku. « powrót do artykułu
  15. Naukowcy z Instytutu Podstaw Informatyki PAN, Instytutu Nenckiego PAN, Uniwersytetu Warszawskiego opracowali pierwszy, kompleksowy „Atlas obszarów regulatorowych aktywnych w glejakach o różnym stopniu złośliwości”, który ujawnił zaburzenia ekspresji genów i nowy mechanizm regulujący inwazyjność złośliwych guzów mózgu. Wyniki badań zostały opublikowane w czasopiśmie Nature Communications. Ludzki genom to ogromny zbiór instrukcji, które są odczytywane i interpretowane, aby wyprodukować białka komórkowe i umożliwić różnorodne funkcje komórek i tkanek. DNA kodujące białka stanowi mniej niż 2% ludzkiego genomu, a odszyfrowanie funkcji pozostałych, niekodujących regionów, stanowi wielkie wyzwanie. W każdej tkance aktywnych jest kilkadziesiąt tysięcy genów, a zrozumienie sposobu ich regulacji pozwala lepiej wniknąć w funkcje komórki. W komórce nić DNA jest owinięta wokół białek zwanych histonami i tworzy wysoce zorganizowaną strukturę zwaną chromatyną. Zmiany biochemiczne histonów przyczyniają się do otwartości lub braku dostępu do chromatyny, i mogą pobudzać lub hamować ekspresję genów (procesy te nazywamy epigenetycznymi). Enzymy mogą odczytywać instrukcje zawarte w DNA tylko w miejscach chromatyny, które są otwarte, co oznacza, że są dostępne dla enzymów. Mapowanie regionów regulatorowych i otwartej chromatyny w skali całego genomu zapewnia wgląd w to, jak geny są regulowane w określonych komórkach i stanach fizjologicznych lub patologicznych. Zmiany w dostępności chromatyny są regulowane przez procesy epigenetyczne, które zapewniają ich trwałość, wpływają na odczytywanie konkretnych genów, a w konsekwencji na procesy komórkowe. Rozregulowanie ekspresji genów często towarzyszy rozwojowi nowotworów. Procesy regulujące otwartość chromatyny są odwracalne i można je kontrolować czynnikami zewnętrznymi, zatem sterowanie dostępnością chromatyny ma duży potencjał kliniczny. Glejaki są guzami mózgu, w których często dochodzi do zaburzenia kontroli ekspresji genów, co powoduje niekontrolowany rozrost guza i zaburzenia funkcji mózgu. Złośliwe glejaki najczęściej występują u osób starszych, są odporne na standardowe terapie i dlatego mają bardzo złe rokowania. Łagodne glejaki występują głównie u dzieci i mają lepsze rokowania, choć nieleczone, mogą przekształcić się w złośliwe nowotwory. Współpracując z neurochirurgami z warszawskich ośrodków klinicznych zebrano unikalną kolekcję próbek i przeprowadzono kompleksową, cało-genomową analizę wzorców epigenetycznych w próbkach guzów łagodnych i złośliwych. Porównanie wzorców pozwoliło wskazać konkretne procesy powiązane ze złośliwością glejaków. W projekcie po raz pierwszy zbadano jednocześnie wzorce otwartości chromatyny, stanu histonów, metylacji DNA i ekspresji genów w ponad 30 próbkach guzów mózgu. Wykorzystano wszystkie wskazówki molekularne, aby zidentyfikować elementy regulatorowe, takie jak promotory, które kontrolują ekspresję sąsiednich genów i wzmacniacze, które sterują ekspresją odległych genów. Stworzony przez naukowców Atlas, do którego można uzyskać dostęp za pośrednictwem serwera internetowego, pozwala lepiej zrozumieć znaczenie niekodujących regionów genomu, które są aktywne w mózgu. Ujawnił też nowe mechanizmy sterujące nowotworzeniem w guzach mózgu. Nasze badania doprowadziły do powstania pierwszego, kompleksowego atlasu aktywnych elementów regulatorowych w glejakach, który umożliwił identyfikację funkcjonalnych wzmacniaczy ekspresji i promotorów w próbkach pacjentów. To kompleksowe podejście ujawniło wzorce epigenetyczne wpływające na ekspresję genów w łagodnych glejakach oraz nowy mechanizm powiązany ze złośliwością guzów obejmujący ścieżkę sygnałową kierowaną przez czynnik FOXM1 i kontrolująca inwazyjność i migracje komórek glejaka. Atlas dostarcza ogromnego zbioru danych, które można wykorzystać do kolejnych analiz i porównań z istniejącymi i nowymi zbiorami danych. Pozwoli to na nowe odkrycia i lepsze zrozumienie mechanizmów rozwoju glejaków – mówią dr Karolina Stępniak i dr Jakub Mieczkowski, główni autorzy publikacji. Stworzenie i udostępnienie atlasu aktywnych obszarów regulatorowych w glejakach o różnym stopniu złośliwości umożliwi dokonywanie nowych odkryć i lepsze zrozumienie mechanizmów kluczowych dla rozwoju glejaków. « powrót do artykułu
  16. Podczas prac w Sydney Gardens w Bath archeolodzy odkryli sarkofag z miejscowego wapienia sprzed ok. 2 tys. lat (z okresu rzymskiego), w którym pochowano szczątki 2 osób. Jedną z nich ułożono na brzuchu, a częściowe szczątki drugiej złożono w jej nogach. Kamienny sarkofag odkryto w grobie o długości ok. 2 m, szerokości 60 cm i głębokości 50 cm. W pobliżu natrafiono na możliwą ofiarę - naczynie z resztkami pokarmu, a także na czerwone i niebieskie szklane koraliki. W Sydney Gardens są obecnie prowadzone prace renowacyjne. W czasie ich trwania na obrzeżach cmentarza Bathwick odkryto rzymski mur. Sarkofag znaleziono podczas wykopalisk na obszarze wokół konstrukcji. Kelly Madigan, partnerka w sprawującej nadzór archeologiczny firmie L-P Archaelogy, ma nadzieję, że uda się ustalić, kim byli ludzie pochowani w sarkofagu (skąd pochodzili, jaki był ich status społeczny i stan zdrowia). Dodaje też, że znalezisko daje rzadki wgląd w miejscowe praktyki pogrzebowe sprzed niemal 2 tys. lat. Warto dodać, że w pobliżu odkryto także pochówek ciałopalny (to jak dotąd jedyny taki pochówek z nekropolii Bathwick). Znalezienie ludzkiego szkieletu powiązanego z trumną to rzadkość, a tutaj mamy jeszcze dar wotywny i pobliski pochówek, cieszy się Madigan. W e-mailu przysłanym KopalniWiedzy uczona wyjaśnia, że pochówek jest zorientowany na osi północ-południe, z głową zmarłej osoby w kierunku północnym. Obecnie szczątki przechodzą badania osteologiczne i środowiskowe. Specjaliści chcą poznać wiek, status materialny, stan zdrowia i płeć zmarłej osoby. Z kolei w ramach badań środowiskowych szczegółowo sprawdzane jest wszystko, co znajdowało się w trumnie. W laboratorium poszukuje się koralików, niewielkich kości, pyłków roślinnych, nasion czy pasożytów. Ratusz rozważa możliwość, że pusty sarkofag będzie wystawiany w Świątyni Minerwy w Sydney Gardens. « powrót do artykułu
  17. W Mieście Dawida, miejscu oryginalnego osadnictwa w Jerozolimie, znaleziono skamieniałe zęby rekinów. Nie wiadomo, jak trafiły one w okolice odległe o 80 km od najbliższego miejsca, gdzie można się takich skamieniałości spodziewać. Niewykluczone jednak, że była to... celowo gromadzona kolekcja. A powstała wkrótce po śmierci króla Salomona, przed około 2900 laty. Co interesujące, podobne kolekcje zaczęto odkrywać w innych miejscach Judei. Doktor Thomas Tuetken z Uniwersytetu w Moguncji, który omawiał znalezisko podczas Goldschmidt Conference, stwierdził: Skamieniałości nie leżały w oryginalnym miejscu, zostały przeniesione. Miały dla kogoś wartość. Nie wiemy dlaczego. Nie wiemy też, dlaczego podobne zbiory znaleźliśmy w więcej niż 1 miejscu w Izraelu. Zęby znaleziono w materiale, który wykorzystano do wypełnienia fundamentów piwnicy, nad którą w epoce żelaza zbudowano duży dom. Wraz z nimi do wypełniania wrzucono rybie ości sprzed 2900 lat i fragmenty ceramiki. Co interesujące, znajdowały się tam również setki pieczęci, co może wskazywać, że w którymś punkcie historii miejsce to było powiązane z lokalną administracją. Archeolodzy, datując ceramikę, ości i pieczęcie, stwierdzili że całość pochodzi sprzed 2900 lat, a zęby rekinów należą do gatunków, które wówczas żyły. Gdy jednak wysłali swój artykuł do publikacji, pewien recenzent zwrócił im uwagę, że jeden z zębów może należeć do rekina wymarłego przed 66 milionami lat. Wróciliśmy więc do naszych próbek, przeprowadziliśmy badania materii organicznej, jej składu, stopni skrystalizowania i stwierdziliśmy, że wszystkie zęby to skamieniałości. Badania izotopowe strontu wykazały, że pochodzą one sprzed około 80 milionów lat. Zatem wszystkie 29 zębów z rekinów z Miasta Dawida pochodziło z późnej kredy. Stwierdziliśmy też, że nie pochodzą z miejsca, w którym je znaleźliśmy. Prawdopodobnie przywieziono je z odległej o 80 kilometrów pustyni Negew, mówi Tuetken. Od czasu odkrycia w Mieście Dawida zespół Tuetkena znalazł zęby rekina jeszcze w 2 innych miejscach w Izraelu. Również one prawdopodobnie zostały przeniesione z oryginalnego miejsca. Postawiliśmy hipotezę roboczą, że zęby zostały zgromadzone przez kolekcjonerów, jednak nie mamy niczego, na jej poparcie. Brak na nich śladów wskazujących, by służyły jako narzędzia, ani wywierconych otworów sugerujących, że stanowiły biżuterię. Wiemy, że nawet dzisiaj istnieje rynek zębów rekinów, więc może w epoce żelaza były one zbierane. W tym okresie klasa rządząca Judei była bogata. Jednak zbyt łatwo jest tutaj popełnić pomyłkę. Prawdopodobnie nigdy się nie dowiemy, dlaczego zęby zgromadzono. Wśród kolekcji zębów znajdują się tez i takie należące do rekinów z rodzaju Squalicorax. Rodzaj ten żył wyłącznie w późnej kredzie, posłużył więc jako punkt odniesienia do datowania skamieniałości. « powrót do artykułu
  18. W tym roku Włochy obchodzą 700-lecie śmierci Dantego. Jedną z zaplanowanych atrakcji jest podróż zabytkowym pociągiem na trasie Florencja-Rawenna. Inauguracyjna jazda składem z początku XX w. (centoporte) odbyła się w zeszłą sobotę. Pociąg ma kursować w weekendy od 3 lipca do 10 października. Każdy pasażer otrzymuje pamiątkę w postaci miniaturowego wydania "Boskiej komedii". Z powodów politycznych Dante został wygnany z rodzinnej Florencji. Przez resztę życia tułał się, podróżując głównie w rejonie między północną Toskanią a Emilią-Romanią. Treno di Dante daje możliwość podziwiania tych terenów. Będzie się on zatrzymywać w miejscowościach Borgo San Lorenzo i Marradi w regionie Toskania, a także w Brisighelli i w Faenzie w regionie Emilia-Romania. Skład wyrusza o 8.50 ze stacji Firenze Santa Maria Novella we Florencji. Do Rawenny, gdzie Dante zmarł 1321 r., dojeżdża o 12.20. Podróż powrotna rozpoczyna się o 17.55. Przyjazd do Florencji zaplanowano na 21. Pierwszy symboliczny przejazd pociągu odbył się 6 czerwca. Treno di Dante podróżował wtedy Riccardo Muti, który dyrygował Orchestra Giovanile Luigi Cherubini na ponownym otwarciu Teatro degli Animosi w Marradi. W swojej relacji Sylwia Wysocka, korespondentka PAP-u we Włoszech, przypomniała, że w Rawennie od maja br. otwarte jest nowoczesne muzeum Dantego, w którym zwiedzający w sugestywnej scenerii odbywają wirtualną podróż inspirowaną "Boską komedią". Tysiące turystów z Włoch i zagranicy odwiedzają też grobowiec ojca literatury włoskiej. « powrót do artykułu
  19. Wraz z rozpowszechnieniem antybiotyków do zwalczania wielu infekcji bakterie uruchomiły swój naturalny mechanizm obronny stawiając czoła nawet najskuteczniejszym lekom. Tym samym, jeśli odporna na nie bakteria zaatakuje organizm, próżno i darmo stosować antybiotyki. Choć walka z tak groźnym i podstępnym przeciwnikiem jest trudna, to na szczęście jest sposób na ich przezwyciężenie. Z pomocą przychodzi terapia ostatniej szansy opierająca się na stosowaniu wyspecjalizowanych wirusów zwanych fagami, będąca ciężkim działem wymierzonym w podstępne i jakże wytrzymałe bakterie. Jej skuteczność zależy jednak od wielu czynników, a niektóre z nich choć nieoczywiste, mają ogromne znaczenie dla powodzenia terapii. Ostatnio naukowcy z Instytutu Chemii Fizycznej Polskiej Akademii Nauk kierowani przez dr Jana Paczesnego i prof. Roberta Hołysta wyjaśnili dlaczego w niektórych przypadkach terapia ostatniej szansy zawodzi. Wykazali bowiem, że przyczyną zmniejszenia skuteczności fagów jest materiał z jakiego wykonany jest pojemnik do ich przechowywania. Antybiotyki, od chwili pojawienia się w medycynie, znajdują zastosowanie do leczenia wielu infekcji, zarówno tych mniej, jak i bardziej groźnych dla zdrowia. Dzięki nim wiele chorób szybko odchodzi w niepamięć pacjenta, lecz coraz częściej nie pozostaje obojętne dla bakterii prowadząc do nabycia przez nie naturalnej oporności. W efekcie, niektóre szczepy są odporne na wszystkie znane nam antybiotyki. Antybiotykoopornych bakterii nie pokona nawet najmocniejszy z nich – wankomycyna, lecz gdy już dojdzie do zarażenia śmiertelnym przeciwnikiem pomocy można szukać w terapii opierającej się na bakteriofagach. Terapia ostatniej szansy to nic innego niż użycie wyspecjalizowanych wirusów zwanych także fagami lub bakteriofagami, które są groźne dla określonych szczepów bakterii. Fagi są niezwykle skuteczne w leczeniu np. chronicznych chorób układu moczowego. Niestety, zdarza się, że roztwory do iniekcji nie są sobie równe gdyż ilość fagów w przed podaniem nagle spada, a to przekłada się na pogorszenie skuteczności terapii. Przyczynę nagłego spadku ilości aktywnych fagów w roztworze rozwikłali badacze w Instytutu Chemii Fizycznej Polskiej Akademii Nauk. Zespoły naukowców dr Jana Paczesnego i prof. Roberta Hołysta udowodniły, że ilość fagów w roztworze zależy od rodzaju opakowania w jakim są przechowywane. Zaskakujące okazało się, że to czy fag znajduje się w cieczy czy “osiada” na stałe na powierzchni ścianek naczynia zależy od hydrofobowości. To właśnie ta cecha powoduje, że ich ilość w roztworze może drastycznie spaść nawet o kilka rzędów wielkości. W niniejszej pracy badacze przetestowali wiele rodzajów pojemników z powszechnie stosowanego polipropylenu dedykowanego do przechowywania próbek laboratoryjnych. I choć wydaje się, że opakowania pozyskane u jednego producenta są jednakowe, to jak się okazuje, mogą się różnić właściwościami powierzchni. Wszystko za sprawą dodatków do tworzyw sztucznych polepszających elastyczność opakowań. Dr Paczesny zauważa, Zweryfikowaliśmy, czy za obserwowany efekt malejącej  liczby aktywnych fagów roztworach umieszczonych w pojemnikach polipropylenowych odpowiadają substancje, które wypłukiwane są z tworzywa sztucznego. Rozważaliśmy możliwość, że substancje wymywane z tworzywa mogą dezaktywować fagi lub chronić je przed czynnikami zewnętrznymi takimi jak temperatura. Następnie zbadaliśmy ich adsorpcję na ściankach pojemników polipropylenowych jako czynnik stojący za spadkiem ich liczebności w roztworze. Tym samym zaobserwowaliśmy niekontrolowaną adsorpcja fagów i ich późniejsze zniknięcie z roztworu, które może podawać poważne błędy i niepowtarzalne wyniki podczas wykonywania analiz laboratoryjnych. Jest to niezwykle ważne w przypadku terapii fagowych, gdzie liczebność aktywnych fagów pełni kluczową rolę. Badacze przetestowali różne pojemniki stosując standardowe procedury laboratoryjne, takie jak mieszanie, podgrzewanie lub przedłużone przechowywanie aktywnych fagów. Ich badania wykazały, że spadek liczby bakteriofagów w cieczy zależy głównie od właściwości powierzchniowych danego materiału, takich jak zwilżalność. Komplementarnie, zbadano również wpływ właściwości samych fagów, w tym właściwości elektrostatyczne ich powierzchni. Jednak, wyniki wyraźnie wskazują, że choć ilość ładunku elektrycznego na ich powierzchni nieznacznie wpływach na adsorpcję na powierzchni, za to głównym czynnikiem odpowiadającym za zjawisko „znikania” fagów z roztworu jest hydrofobowość tworzywa. Celem potwierdzenia hipotezy naukowcy zaproponowali konkretne procedury dla pojemników o specyficznych właściwościach, takich jak traktowanie powierzchni tworzywa określonym środkiem powierzchniowo czynnym ograniczając adsorpcję faga na powierzchni polipropylenu. Rozwiązanie to pozwoliło na dokładne poznanie mechanizmu adsorpcji fagów. Co najważniejsze, naukowcy wyjaśnili, dlaczego fagi mają tendencję do przylegania na niektórych powierzchniach ścianek pojemników. Okazało się, że im bardziej hydrofobowa powierzchnia, tym układ, którym jest ciecz zawierająca fagi dąży do obniżenia energii. Zatem, agregacja fagów na hydrofobowych ściankach pojemnika polipropylenowego jest bardziej opłacalna energetycznie niż ich przebywanie w głębi roztworu. Dzięki temu gdy ścianki są pokryte fagami, woda ma ograniczony kontakt z hydrofobowym materiałem. Nasze odkrycia mają kluczowe znaczenie nie tylko dla badań z użyciem fagów do terapii. Naukowcy mogą nawet nie zdawać sobie sprawy, że producent pojemników polipropylenowych może dostarczać pozornie ten sam produkt, który tak naprawdę znacznie różni się właściwościami powierzchni w zależności choćby od partii. To z kolei pozostaje nieobojętne dla wyników badań prowadzonych z użyciem różniącego się tworzywa i może prowadzić do fałszywych wniosków z badań. Co gorsza, jak w przypadku fagów – może nieść nieskuteczność terapii spowodowane tylko i wyłącznie użyciem pojemnika z innej partii lub materiału – donosi dr. Paczesny. Badania naukowców przedstawione zostały w prestiżowym czasopiśmie Scientific Reports z 1 kwietnia 2021 prezentując ważne zagadnienie dotyczące skuteczności terapii ostatniej szansy opartej na działaniu bakteriofagów. W przypadku nagłej potrzeby jej zastosowania, wybór pojemnika przez osobę podającą pacjentowi ciecz z fagami zdaje się mieć małe znaczenie, jednak nic bardziej mylnego. Okazuje się, że rodzaj tworzywa sztucznego ma diametralny wpływ na ilość aktywnych fagów w roztworze i tym samym na powodzenie terapii. W starciu ze śmiercionośnymi, antybiotykoopornymi bakteriami ilość fagów, które są jedyną bronią zredukowana przez właściwości tworzywa użytego to wytworzenia pojemnika może zaważyć o losach pacjenta. Dzięki badaczom z IChF PAN przedstawione dane i proponowane rozwiązania z pewnością przyczynią się nie tylko do poprawy badań w zakresie stosowania bakteriofagów, ale z także w innych dziedzinach, gdzie ilość substancji zawieszonej w roztworze ma znaczenie biologiczne. « powrót do artykułu
  20. Podczas jednych z najszerzej zakrojonych badań dotyczących genetyki otyłości, udało się zidentyfikować rzadkie warianty genetyczne, które chronią przed przybieraniem na wadze. Odkrycia dokonano dzięki sekwencjonowaniu eksomów u ponad 640 000 mieszkańców Meksyku, USA i Wielkiej Brytanii. To alternatywna metoda sekwencjonowania genomu, dzięki której odkryto już wiele interesujących genów. Po wykonaniu sekwencjonowania naukowcy szukali mutacjach w genach powiązanych z niskim lub wysokim BMI. Z 16 genów powiązanych z BMI, pięć koduje występujące na powierzchni komórek receptory sprzężone z białkami G. Naukowcy odkryli, że do ekspresji wszystkich tych genów dochodzi w podwzgórzu, obszarze odpowiedzialnym za łaknienie i metabolizm. Największy wpływ na BMI miał wariant genu GPR75. Osoby, u których występowała mutacja powodująca, że jedna z kopii genu była nieaktywna, były średnio o 5,3 kilograma lżejsze niż ludzie z aktywnymi obiema kopiami i były o 50% mniej narażone na rozwinięcie się u nich otyłości. Autorzy badań, chcąc zbadać, w jaki sposób GPR75 wpływa na przybieranie na wadze, zmodyfikowali genetycznie myszy tak, by nie występowała u nich działająca kopia genu. Gdy następnie takie myszy karmiono wysokokaloryczną dietą, przybrały one na wadze o 44% mniej niż myszy, których nie modyfikowano. Co więcej, u zmodyfikowanych genetycznie myszy stwierdzono lepszą kontrolę nad poziomem cukru we krwi i większą wrażliwość na insulinę. Niestety, wariant GPR75, w którym jedna z kopii jest nieaktywna, rzadko występuje u ludzi. Posiada go tylko 1 na 3000 osób. Jednak sam fakt, że mutacja tego genu ma tak wielki wpływ na masę ciała i związane z nią problemy, wiele mówi o biologii. Naukowcy uważają, że GPR75 może stać się w przyszłości celem dla leków zwalczających otyłość. Obecnie znamy dwie molekuły, które aktywują receptor GPR75. Potrzebujemy leku, który by go dezaktywował. Taki środek byłby niezwykle pomocy w walce z otyłością. Artykuł Sequencing of 640,000 exomes identifies GPR75 variants associated with protection from obesity autorstwa uczonych z USA, Szwecji, Meksyku i Wielkiej Brytanii został opublikowany na łamach Science. « powrót do artykułu
  21. W 1971 roku Stephen Hawking stwierdził, że powierzchnia horyzontu zdarzeń czarnej dziury nie może się skurczyć. Teraz, niemal 50 lat po sformułowaniu tego prawa, fizycy z MIT i innych uczelni potwierdzili, że Hawking miał rację. Naukowcy wykorzystali przy tym sygnał grawitacyjny GW150914. To pierwsza fala grawitacyjna, wykryta przez LIGO w 2015 roku. Fala powstała w wyniku oddziaływania dwóch krążących wokół siebie czarnych dziur, w które w końcu się połączyły w jedną czarną dziurę. Jeśli Hawking miał rację, to powierzchnia horyzontu zdarzeń nowej czarnej dziury nie powinna być mniejsza od powierzchni horyzontów zdarzeń jej dwóch dziur. Fizycy przeanalizowali sygnał GW150914 sprzed i po zderzeniu dziur i stwierdzili, że po połączeniu obiektów całkowita powierzchnia nowego horyzontu zdarzeń nie zmniejszyła się. To pierwsze obserwacyjne potwierdzenie słów Hawkinga. Dotychczas specjaliści byli w stanie udowodnić je matematycznie, ale nie obserwacyjnie. Autorzy badań chcą przeanalizować inne fale grawitacyjne, by sprawdzić, czy również i w nich znajdą potwierdzenie sformułowanego przez Hawkinga prawa. Możliwe, że istnieje wiele różnych kompaktowych obiektów w przestrzeni kosmicznej. Niektóre z nich mogą być czarnymi dziurami, dla których opisy Einsteina i Hawkinga są ważne, inne zaś mogą zachowywać się nieco inaczej. To nie jest tak, że wystarczy potwierdzić coś raz i tyle wystarczy, mówi główny autor badań, Maximiliano Isi z Kavli Institute for Astrophysics and Space Research. W badaniach bali tez udział Will Farr ze Stony Brook University, Matthew Giesler i Saul Teukolsky z Cornell University oraz Mark Scheel z Caltechu. Gdy w 2015 roku LIGO wykrył fale grawitacyjne, Stephen Hawking skontaktował się z profesorem Kipem Thornem, współzałożycielem LIGO i zapytał go, czy wykrycie fal grawitacyjnych pozwala potwierdzić jego twierdzenie o powierzchni horyzontu zdarzeń. Wówczas jednak naukowcy nie byli w stanie pozyskać z sygnału odpowiednich danych sprzed i po połączeniu czarnych dziur, więc nie mogli porównać powierzchni horyzontów zdarzeń. Dopiero w 2019 roku Isi i jego koledzy opracowali technikę, która pozwoliła na pozyskanie odpowiednich informacji z konkretnych zarejestrowanych częstotliwości. Informacje te można następnie wykorzystać do obliczenia masy i spinu czarnej dziury. Z kolei masa i spin są bezpośrednio związane z powierzchnią horyzontu zdarzeń. Gdy już mieli tę technikę opanowaną, „wystarczyło” podzielić sygnał GW150914 w jego szczycie. Analiza sygnału sprzed szczytu pochodziła z dwóch krążących wokół siebie czarnych dziur, a nowa technika pozwoliła na określenie ich masy i spinu sprzed połączenia się. Na tej podstawie wyliczyli powierzchnię horyzontu zdarzeń obu czarnych dziur na około 235 000 kilometrów kwadratowych. Następnie w podobny sposób policzyli powierzchnię horyzontu zdarzeń nowo powstałej czarnej dziury i okazało się, że wynosi ona 367 000 km2. Dane bezsprzecznie pokazują, że po połączeniu powierzchnia horyzontu zdarzeń zwiększyła się, mówi Isi. « powrót do artykułu
  22. Kiedy nadchodzi moment, by starać się o dziecko, warto szczególnie zadbać o swój organizm. Niezwykle ważny jest zarówno okres poprzedzający poczęcie, jak i pierwsze 12 tygodni ciąży. To one w dużej mierze mają wpływ na zdrowie dziecka i kondycję przyszłej mamy. O czym pamiętać, starając się o dziecko? Dieta przyszłej mamy Zanim zacznie się starania o zajście w ciążę, warto popracować nad zmianą nawyków żywieniowych i nieco bardziej zbilansować swoją dietę, by oczyścić organizm i zwiększyć jego odporność. Bezwzględnie należy zrezygnować ze wszelkich używek, w tym także z palenia papierosów – ten nałóg najtrudniej porzucić, więc im wcześniej podejmie się decyzję, tym lepiej. Dobrze również zawczasu zrezygnować z alkoholu, zwiększyć ilość owoców, warzyw i ryb w diecie, słowem – zadbać o to, by dieta była zdrowa i bogata w najważniejsze składniki odżywcze, witaminy i minerały, zapewniające siłę i witalność organizmowi przyszłej mamy. Aktywność fizyczna jako przygotowanie do ciąży Tygodnie poprzedzające ciążę warto wykorzystać na zwiększenie wydolności i odporności organizmu, wprowadzając nieco więcej aktywności. Będzie ona niezbędna również w ciąży, by zapewnić zdrowie i odporność mamie, a tym samym dziecku. Zdecydowanie należy przygotować się na to, by aktywność kontynuować także w ciąży, po konsultacji z lekarzem. Badania lekarskie przed planowaną ciążą Zanim rozpocznie się starania o dziecko, warto przeprowadzić wszystkie podstawowe badania. Powinien je zlecić lekarz ginekolog, jednak można również zrobić to na własną rękę. Badania krwi (wraz z oznaczeniem grupy) i moczu, wizyta u dentysty i okulisty oraz stała opieka ginekologiczna są niezbędne, by odpowiednio przygotować ciało do ciąży i zapewnić rozwijającemu się dziecku jak najlepsze warunki. Jeśli starania o ciążę przedłużają się – warto wykonywać podstawowe badania krwi i moczu nieco częściej. Jak przygotować psychikę do ciąży? Jednym z najważniejszych czynników, o które należy zadbać, starając się o dziecko, jest spokój. Ciągły stres i presja, jaką narzuca myśl o staraniach, mogą być czynnikami, które utrudnią zajście w ciążę. O ile ważne jest, by skupiać się na swoim organizmie, obserwować go, znać swój cykl, o tyle sprowadzanie każdej myśli i wszystkich działań do ciąży może być zbyt obciążające i zaburzające prawidłową pracę organizmu. Słowem – warto się uspokoić i pozwolić na to, by myśl o poczęciu dziecka determinowała całe życie. Kiedy zrobić test ciążowy? Jeśli jest prawdopodobieństwo, że starania mogły zakończyć się sukcesem, warto wykonać test ciążowy. Kiedy najwcześniej to zrobić? Nie wcześniej, niż w pierwszym dniu spodziewanej miesiączki, a najlepiej odczekać jeszcze jeden dzień. Warto dokładnie zapoznać się z instrukcją załączoną do testu, by prawidłowo odczytać wynik, a także powtórzyć badanie. Można również wykonać tekst ciążowy z krwi, który daje najbardziej wiarygodny wynik  i również powtórzyć go po kilku dniach. « powrót do artykułu
  23. Międzynarodowy zespół naukowców przeprowadził eksperymenty, które miały pomóc w ocenie stężenia cząstek stałych w związku ze spalaniem paliw biomasowych (drewna i odchodów) w neolitycznych domach. Badania przeprowadzono w lipcu 2017 r. w replice domu w Çatalhöyük w Turcji. Okazało się, że w przypadku obu paliw stężenia PM2,5, czyli pyłu bardzo drobnego (ang. fine particles) o średnicach cząstek poniżej 2,5 μm, przekraczały międzynarodowe standardy (WHO i UE) dla jakości powietrza w pomieszczeniach. Autorzy artykułu z pisma Environmental Geochemistry and Health podkreślają, że o ile dość dobrze zbadano wpływ środowiskowy prehistorycznego wykorzystania paliw biomasowych, o tyle niewiele wiadomo o ich wpływie na zdrowie, zwłaszcza w neolicie, gdy ludzie przeszli od życia w stosunkowo małych grupach do zamieszkiwania w gęsto zaludnionych osadach. W typowym domu w Çatalhöyük znajdował się piec kopułowy posadowiony przy południowej ścianie (nad nim znajdował się otwór w dachu). W latach 90. (1997-1999) zbudowano replikę domu z cegły suszonej dla zwiedzających. W skład zespołu badawczego wchodzili m.in. eksperci z Uniwersytetów w Newcastle, Durham i Kopenhadze. Eksperymenty prowadzono 11, 12 i 13 lipca 2017 r. Średnia temperatura w okolicy wynosiła wtedy 24°C, nie padało i wiał jedynie lekki wiatr. By zmierzyć poziom PM2,5, przeprowadzono 5 testów. Pierwszy miał pokazać wyjściowy poziom zanieczyszczenia, testy nr 3, 4 i 5 miały unaocznić poziom PM2,5 podczas spalania paliw w piecu, zaś test nr 2 podczas spalania w palenisku. Piec był zamknięty z trzech stron; z przodu znajdował się otwór do podkładania paliwa, a od góry mniejszy otwór, przez który wydostawał się dym. Zlokalizowane z przodu palenisko było całkowicie otwarte. Mieszkańcy wsi Küçükköy dostarczyli drewno i odchody. Odchody krów karmionych trawą zostały przed eksperymentem wysuszone. Podczas testu nr 2 w palenisku spalano suszone odchody. W ramach testu nr 3 w piecu spalono drewno (zajęło to 2 h 36 min), zaś podczas testu nr 4 w piecu wykorzystano paliwo mieszane - drewno i odchody. Gdy prowadzono test nr 5, ogień rozniecono i po 3 min dodano dwa kawałki drewna. Naukowcy wykorzystali 3 stacje (urządzenia) pomiarowe. Okazało się, że maksymalny poziom PM2,5 przy spalaniu suszonych krowich odchodów wynosił >150,000 µg m−3. Maksymalny poziom związany z paleniem drewna wynosił natomiast 36,000 µg m−3. Średnie wartości dla 2-3-godzinnego spalania odchodów i drewna wynosiły, odpowiednio, 13–60,000 µg m−3 oraz 10–45,000 µg m−3. Jak podkreślili akademicy, stężenia pozostawały wysokie do 40 min od wygaszenia ognia. Analizując wyniki, ekipa doszła do wniosku, że ustawienie człowieka względem ognia miało jedynie minimalny wpływ na ekspozycję na zanieczyszczenia. Brakowało odpowiedniego komina. Ponadto konstrukcja składała się z pojedynczego, niewielkiego pomieszczenia, co lokowało palenisko w przestrzeni mieszkalnej. Przez to w wyniku zwykłych, codziennych czynności każdy z mieszkańców był narażony na niebezpieczny poziom cząstek stałych. Niemal na pewno miało to negatywny wpływ na zdrowie tych społeczności [...] - podkreśla dr Lisa-Marie Shillito z Uniwersytetu w Newcastle. Badanie zależności między zanieczyszczeniem powietrza i zdrowiem w przeszłości jest trudne, bo przez stan zachowania ludzkie szczątki nie zawsze zapewniają jasne wskazówki. Cząstki PM2,5 mogą docierać do płuc i pozostawać w tkance, a nawet dostawać się do krwiobiegu, wyzwalając odpowiedź zapalną poza płucami. W szczątkach wielu mieszkańców Çatalhöyük stwierdzono zmiany przerostowe tkanki kostnej o charakterze osteoperiostitis, co wg autorów raportu z Environmental Geochemistry and Health mogło być reakcją na infekcję; zjawisko to można by wyjaśnić właśnie przewlekłą ekspozycją na PM2,5. To badanie może mieć ważne implikacje dla współczesnych czasów. Wiele społeczności na świecie nadal wykorzystuje biomasę do gotowania i ogrzewania źle wentylowanych pomieszczeń [...]. Nasze studium sygnalizuje problem i może utorować drogę różnym rozwiązaniom - podsumowuje prof. Anil Namdeo z Northumbria University. « powrót do artykułu
  24. W ciągu ostatnich kilku dni ze stanowisk redakcyjnych w recenzowanym piśmie Vaccines zrezygnowało co najmniej 6 wirusologów i wakcynologów, w tym współzałożycielka pisma Diane Harper z University of Michigan. Do rezygnacji uczonych doszło po tym, jak w piśmie ukazał się artykuł, którego autorzy stwierdzili, że na każde 3 zgony na COVID19, którym szczepionki zapobiegły, przypadają 2 zgony spowodowane przez szczepionki. Z pracy dla Vaccines zrezygnowali m.in. Florian Krammer, wirusolog z Icahn School of Medicine, immunolog Katie Ewer z University of Oxford, która brała udział w pracach nad szczepionką AstraZeneca czy Helen Petousis-Harris, wakcynolog stojąca na czele Vaccine Datalink and Research Group na University of Auckland. Dane zostały nieprawidłowo zinterpretowane, gdyż wynika z nich, że każdy zgon, który nastąpił po szczepieniu został spowodowany szczepieniem. Teraz artykuł ten jest wykorzystywany przez antyszczepionkowców i osoby zaprzeczające istnieniu pandemii, jako argument, że szczepionki nie są bezpieczne. Publikacja takiego artykułu jest wysoce nieodpowiedzialna, szczególnie ze strony pisma specjalizującego się w publikacjach na temat szczepionek, stwierdziła Katie Ewer. Fala rezygnacji rozpoczęła się w piątek, po opublikowaniu artykułu zatytułowanego The Safety of COVID-19 Vaccinations—We Should Rethink the Policy. Jego autorami są Harald Walach z Uniwersytetu Medycznego w Poznaniu, Rainer J. Klement ze Szpitala Leopoldina w Niemczech oraz Wouter Aukema z Holandii. Żaden z autorów nie jest wirusologiem, wakcynologiem czy epidemiologiem. Harald Walach to psycholog kliniczny i historyk nauki, Rainer Klement specjalizuje się w diecie ketogenicznej w leczeniu nowotworów, zaś Wouter Aukema jest niezależnym specjalistą od analizy danych. Ich artykuł był recenzowany przez trzech naukowców. Dwoje z nich jest anonimowych. Trzecim recenzentem jest Anne Ulrich, chemik z Instytutu Technologii w Karlsruhe. W swojej recenzji pani Ulrich napisała, że analiza wykonana przez autorów artykułu jest odpowiedzialna, bez błędów metodologicznych, a wnioski zostały sformułowane z odpowiednimi zastrzeżeniami. Z kolei jeden z anonimowych recenzentów napisał, że artykuł jest bardzo ważny i powinien być pilnie opublikowany. To niemal cała recenzja. Z recenzji tych jasno wynika, że recenzenci nie mają żadnego doświadczenia na polu, którego dotyczy artykuł. Również autorzy artykułu takiego doświadczenia nie posiadają, komentuje Petousis-Harris. Autorzy artykułu obliczyli liczbę zgonów, którym zapobiegły szczepionki przeciwko COVID-19, biorąc pod uwagę wcześniejsze badania nad 1,2 milionami Izraelczyków, z których połowa otrzymała szczepionkę Pfizera, a połowa była niezaszczepiona. Z obliczeń wynikało, że średnio konieczne było zaszczepienie 16 000 osób, by zapobiec jednemu zgonowi. Krytycy zauważają, że wyliczenia są błędne, gdyż w miarę, jak coraz więcej osób jest zaszczepianych, trzeba zaszczepić coraz więcej, by zapobiec każdemu dodatkowemu przypadkowi śmierci. Kolejny błąd popełniono przy obliczaniu liczby zgonów spowodowanych przez szczepionki. Autorzy badań wzięli bowiem pod uwagę holenderską narodową bazę danych dotyczącą niepożądanych skutków przyjmowania środków medycznych. Baza ta, Lareb, jest podobna do amerykańskiego systemu VAERS, który opisywaliśmy przed kilkoma miesiącami. Do Lareb, podobnie jak VAERS, każdy może wpisać wszelkie niepokojące objawy, jakich doświadczył po przyjęciu szczepionki. To jednak nie oznacza, że sygnalizowany problem rzeczywiście został spowodowany przez lek czy szczepionkę. Dlatego też tego typu baz nie wykorzystuje się do oceny ryzyk spowodowanych przez środki medyczne, a do poszukiwania wczesnych sygnałów ostrzegawczych o tego typu ryzykach. Sygnały takie są następnie weryfikowane pod kątem ich związku z przyjętą szczepionką czy lekiem. Zresztą w bazie Lareb wyraźnie zawarto informację, że umieszczenie w niej wpisu nie oznacza, iż istnieje rzeczywisty związek pomiędzy szczepionką lub lekiem, a raportowanymi objawami. Mimo to autorzy badań stwierdzili w artykule, że w bazie tej znaleźli 16 poważnych skutków ubocznych na 100 000 zaszczepionych oraz 4,11 śmiertelnych skutków ubocznych na 100 000 zaszczepionych. Zatem na każde trzy zgony, którym szczepionki zapobiegły, przypadają 2 zgony, które spowodowały. Eugene van Puijenbroek, dyrektor ds. naukowych i badawczych Lareb już dzień po publikacji kontrowersyjnego artykułu napisał do redakcji Vaccines, krytykując artykuł i domagając się jego poprawienia lub wycofania. Zgłoszone do bazy wydarzenie, do którego doszło po zaszczepieniu, niekoniecznie musi być spowodowane przez szczepienie. Tymczasem autorzy zaprezentowali nasze dane tak, jakby istniał związek przyczynowo-skutkowy. Sugerowanie, że we wszystkich wpisach, w których poinformowano o zgonie po szczepieniu, istnieje związek przyczynowo-skutkowy, jest dalekie od prawdy. Co więcej, van Puijenbroek zauważa, że w artykule pada stwierdzenie, że dane z holenderskiego rejestru, szczególnie informacje dotyczące zgonów, zostały potwierdzone przez specjalistów. To po prostu nieprawda. Wydaje się, że autorzy artykułu mają tutaj na myśli opublikowane przez nas zasady tworzenia Lareb. Tymczasem w zasadach tych nigdzie nie pada stwierdzenie, że wpisy znajdujące się w bazie są certyfikowane przez specjalistów, mówi van Puijenbroek. Harald Walach broni artykułu. Mówi, że szczepionki zostały dopuszczone do użytku w trybie przyspieszonym, a liczba osób uczestnicząca w testach klinicznych nie była wystarczająco duża, a testy nie trwały wystarczająco długo, by ocenić bezpieczeństwo. Wszyscy trzej autorzy stoją na stanowisku, że ich artykuł nie zawiera błędów. « powrót do artykułu
  25. Pedro Bernardinelli i Gary Bernstein z Univeristy of Pennsylvania odkryli gigantyczną kometę, która zmierza w stronę Słońca. Już w roku 2031 zbliży się ona na najmniejszą odległość od naszej gwiazdy. Kometa Bernardinelli-Bernstein, oficjalnie nazwana C/2014 UN271, została zauważona podczas analizy zdjęć z jednego z najdoskonalszych aparatów wykorzystywanych w astronomii. Amerykańscy naukowcy analizowali obrazy z lat 2013–2019 wykonane przez 570-megapikselowy Dark Energy Camera (DECam) umieszczony na Victor M. Blanco Telscope w Chile. Urządzenie jest wykorzystywane do monitorowania około 300 milionów galaktyk, a uzyskane dane służą do lepszego zrozumienia ciemnej materii. Uczeni, analizując około 80 000 obrazów, znaleźli na nich ponad 800 obiektów z Układu Słonecznego. Na 32 z nich zauważyli olbrzymią kometę, którą po raz pierwszy widać na zdjęciach z roku 2014. Opierając się na ilości światła odbijanego przez kometę Bernardinelli-Bernstein, jej odkrywcy stwierdzili, że ma ona średnicę 100–200 kilometrów. To około 10-krotnie więcej niż średnica przeciętnej komety. Masa olbrzyma jest zaś około 1000-krotnie większa niż masa przeciętnej komety. To zaś oznacza, że mamy do czynienia z największą kometą odkrytą w czasach współczesnych oraz z największym znanym nam obiektem pochodzącym z Obłoku Oorta. Na pierwszym z wykonanych zdjęć kometa znajduje się w odległości około 25 jednostek astronomicznych (j.a.) od Słońca, czyli mniej więcej w takiej odległości jak Neptun. Uczeni oceniają jednak, że swoją podróż rozpoczęła z Obłoku Oorta, znajdującego się około 40 000 j.a. od naszej gwiazdy. Obecnie kometa Bernardinelli-Bernstein znajduje się w odległości 20 j.a. od Słońca. Z ostatnich zdjęć wynika, że jej powierzchnia na tyle się rozgrzała, że pojawił się warkocz. Jego utworzenie się pozwala oficjalnie zakwalifikować obiekt jako kometę. Pomimo olbrzymich rozmiarów i masy, nie musimy przejmować się obecnością komety. Z wyliczeń jej trajektorii wynika, że podleci ona do Słońca nie bliżej niż na odległość 11 j.a. Dla przypomnienia – jednostka astronomiczna to średnia odległość pomiędzy Ziemią a Słońcem. Bernardinelli-Bernstein nie zbliży się więc do Ziemi bliżej niż Saturn. To na tyle duża odległość, że giganta najprawdopodobniej nie będzie można obserwować gołym okiem. « powrót do artykułu
×
×
  • Dodaj nową pozycję...