Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36646
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    199

Zawartość dodana przez KopalniaWiedzy.pl

  1. Świat fizyki ma kolejne powody do radości. Ledwie poinformowaliśmy o rozpoczęciu napełniania argonem ProtoDUNE, a dowiedzieliśmy się, że amerykański Departament Energii zezwolił na rozpoczęcie kolejnej fazy prac nad Zderzaczem Elektron-Jon (Electron-Ion Collider, EIC), urządzeniem, które będzie badało najpotężniejsze oddziaływania podstawowe we wszechświecie, a w które zaangażowani są też Polacy. Przejście do etapu zwanego „critical decision 3A” pozwala na dokonywanie zakupów wyposażenia, usług i materiałów potrzebnych do powstania EIC. W pracach nad EIC biorą udział naukowcy z 8 polskich instytucji: Akademia Górniczo-Hutnicza, Instytut Fizyki Jądrowej PAN, Narodowe Centrum Badań Jądrowych, Politechnika Krakowska, Politechnika Warszawska, Uniwersytet Jagielloński, Uniwersytet Rzeszowski i Uniwersytet Warszawski, które utworzyły Konsorcjum „The Polish Electron-Ion Collider Group". W NCBJ od dawna prowadzone są badania teoretyczne nad oddziaływaniami silnymi, a Polacy należą do światowej czołówki ekspertów w tej dziedzinie. Zderzacz Elektron-Jon powstanie w Brookhaven National Laboratory na bazie istniejącego tam Relativistic Heavy Ion Collider. Głównym elementem konstrukcji EIC będzie dodanie do RHIC dodatkowego pierścienia tak, by urządzenie składało się z dwóch krzyżujących się akceleratorów. W jednym z nich będą krążyły elektrony, w drugim proton lub jądra atomów. Koszt budowy nowego akceleratora ma wynieść 1,7–2,8 miliardów dolarów i jest to jedyny akcelerator zderzeniowy, jakiego budowa jest rozważana w USA w kontekście kolejnych 50 lat. Można postawić pytanie, czy światowa nauka na pewno potrzebuje kolejnego akceleratora. Wbrew pozorom, nie ma zbyt wielu takich urządzeń. Obecnie na świecie pracuje jedynie kilka akceleratorów zderzeniowych. Elektrony z pozytonami są zderzane w VEPP-5 (Nowosybirsk, Rosja), SuperKEKB (Tsukuba, Japonia), Dafne (Frascati, Włochy), BEPC II (Pekin, Chiny), natomiast jedyne zderzacze hadronów to RHIC (Nowy Jork, USA) i LHC (Francja/Szwajcaria). W EIC ma dochodzić do zderzeń protonów z elektronami. Badanie wyników zderzeń pozwoli na poznanie struktury wewnętrznej protonu, ma dać odpowiedź na pytanie, skąd bierze się spin protonu oraz wyjaśnić właściwości gluonów. Obecnie bardzo słabo rozumiemy wewnętrzną strukturę protonów. Wiemy, że proton składa się z trzech kwarków połączonych oddziaływaniami silnymi. Jednak jako, że wkraczamy tutaj na pole fizyki kwantowej, pozostaje wiele niepewności. Wewnątrz protonu pojawiają się i znikają pary kwark-antykwark, ważną rolę odgrywają też gluony, łączące wszystko w całość. Jednak pozostaje jeszcze do wyjaśnienia wiele tajemnic. Na przykład trzy kwarki tworzące proton stanowią mniej niż 5% jego masy. Reszta masy pojawia się w jakiś sposób z energii wirtualnych kwarków i gluonów. Nie wiemy też, skąd się bierze spin protonu. Nie jest on prostą sumą spinów trzech kwarków. Znaczenie mają również gluony oraz orbitujące wokół siebie kwarki. Niewiele wiemy o samych gluonach. Zgodnie z niektórymi teoriami, łączą się one w pojedynczą falę kwantową. EIC znacznie bardziej nadaje się do tego typu badań, niż Wielki Zderzacz Hadronów, w którym protony zderzane są z protonami. W EIC wykorzystywane będą znacznie mniejsze od protonów elektrony, co da łatwiejsze do interpretacji wyniki. Obecny plan zakłada, że prace konstrukcyjne EIC rozpoczną się w kwietniu przyszłego roku, a w czerwcu 2025 zostanie wyłączony RHIC. EIC ma zacząć pracę w pierwszej połowie przyszłej dekady. « powrót do artykułu
  2. W miarę akumulowania się dwutlenku węgla w atmosferze, na Ziemi robi się coraz cieplej. Naukowcy z University of Washington postanowili zweryfikować scenariusze wzrost temperatur w zależności od wzrostu CO2. To właśnie zależność pomiędzy koncentracją dwutlenku węgla a ociepleniem, zwana czułością klimatu, jest elementem decydującym o tym, jak będzie wyglądała nasza przyszłość. Analizując, o ile chłodniejsza była Ziemia w przeszłości przy niskim stężeniu gazów cieplarnianych, możemy oszacować, o ile będzie cieplejsza przy wyższym ich stężeniu, mówi główny autor badań, Vince Cooper. Nowe badania nie zmieniają przewidywań scenariusza najbardziej optymistycznego, który mówi, że przy podwojeniu koncentracji CO2 w porównaniu z epoką przedprzemysłową średnie temperatury na Ziemi wzrosną o 2 stopnie Celsjusza, ani najbardziej prawdopodobnego, przewidującego wzrost o 3 stopnie. Jednak koryguje prognozy najbardziej pesymistyczne, zgodnie z którymi przy dwukrotnym wzroście koncentracji dwutlenku węgla, dojdzie do wzrostu temperatury o 5 stopni. Zdaniem uczonych z Seattle wzrost w najgorszym wypadku wyniesie 4 stopnie Celsjusza. Jednocześnie autorzy badań stwierdzają, że to, co dzieje się w ostatnich dekadach nie pozwala dobrze przewidywać przyszłości. Duży wpływ mają tutaj bowiem takie czynniki jak krótkoterminowe cykle klimatyczne czy zanieczyszczenie atmosfery. Wzorzec przestrzenny globalnego ocieplenia w ciągu ostatnich 40 latach nie wygląda tak, jak długoterminowy wzorzec przewidywany dla przyszłości. Niedawna przeszłość nie jest dobrą analogią przyszłości, wyjaśnia profesor Kyle Armour. Dlatego uczeni skupili się na maksimum ostatniej epoki lodowej sprzed 21 000 lat. Średnia temperatura na Ziemi była wówczas o 6 stopni niższa niż obecnie, a z badań rdzeni lodowych wiemy, że koncentracja CO2 wynosiła ponaddwukrotnie mniej niż dzisiaj i była na poziomie około 190 ppm. Wśród danych paleoklimatycznych mamy informacje o długich okresach, gdy średnie temperatury były znacznie wyższe lub znacznie niższe niż obecnie. Wiemy, że istniały w tych okresach wielkie wymuszenia klimatyczne, takie jak pokrywy lodowe czy gazy cieplarniane. Jeśli wiemy, jak zmieniały się temperatury w przeszłości i co powodowało te zmiany, wiemy, czego spodziewać się w przyszłości dodaje Cooper. Autorzy badań połączyli dane o dawnym klimacie – pochodzące m.in. z osadów oceaniczny, rdzeni lodowych czy pyłków roślin – z modelami klimatycznym i symulowali pogodę w czasie maksimum ostatniego zlodowacenia. Okazało się, że rozległe pokrywy lodowe chłodziły wówczas Ziemię nie tylko odbijając światło słoneczne. Doprowadziły one też do zmiany wzorców wiatrów i prądów morskich, przez co północne obszary Pacyfiku i Atlantyku były szczególnie pochmurne i chłodne. Chmury te odbijały dodatkowe światło słoneczne, pogłębiając chłodzący efekt pokryw lodowych. Innymi słowy, badacze wykazali, że dwutlenek węgla odegrał mniejszą niż sądzono rolę w nadejściu epoki lodowej. A to oznacza, ich zdaniem, że najbardziej pesymistyczne przewidywania dotyczące jego wpływu na ocieplenie, są mało prawdopodobne. « powrót do artykułu
  3. Już w najbliższy piątek 19 kwietnia w Narodowym Centrum Badań Jądrowych w Otwocku-Świerku odbędzie się Seminarium Finałowe kończące XIX edycję konkursu Fizyczne Ścieżki. Konkurs przeznaczony jest dla uczniów szkół ponadpodstawowych oraz 7 i 8 klas szkół podstawowych. W odróżnieniu od konkursów przedmiotowych i olimpiad Fizyczne Ścieżki to konkurs prac zaproponowanych przez uczniów. Konkurs odbywa się pod honorowym patronatem Ministra Nauki oraz Ministra Edukacji, a jego organizatorami są Narodowe Centrum Badań Jądrowych oraz Instytut Fizyki Polskiej Akademii Nauk. W tym roku na Konkurs zgłoszono 111 prac w trzech kategoriach: Praca Naukowa (29 prac), Pokaz Zjawiska Fizycznego (25 prac), Esej (57 prac). Spośród nich jury Konkursu wybrało najciekawsze, które będą prezentowane przez uczniów na tegorocznym Seminarium Finałowym. Po krótkiej prezentacji odbędzie się dyskusja, w trakcie której uczniowie odpowiadają na pytania jurorów. Po prezentacji i rozmowach z każdym z finalistów Jury Konkursu wyłoni najlepsze prace w trzech kategoriach finałowych, przyznając nagrody i wyróżnienia. Fundatorem nagród głównych są NCBJ, IF PAN a od kilku lat stypendia laureatom funduje Marszałek Województwa Mazowieckiego. Ponadto, wybrani laureaci Konkursu otrzymują tygodniowe staże w ośrodkach badawczych w Polsce (NCBJ, IF PAN), jak również bezwarunkowy wstęp na wybrane uczelnie wyższe (dotyczy wybranych kierunków na Uniwersytecie w Białymstoku, Uniwersytecie Jagiellońskim, Uniwersytecie Warszawskim i Politechnice Świętokrzyskiej) lub – w przypadku Politechniki Warszawskiej – maksymalnej ilość punktów z fizyki (bez względu na ocenę maturalną z tego przedmiotu) w rekrutacji na studia. XIX edycja Konkursu realizowana jest w ramach projektu „Organizacja XIX i XX edycji ogólnopolskiego konkursu fizycznego Fizyczne Ścieżki”. Projekt dofinansowany jest ze środków budżetu państwa, przyznanych przez Ministra Edukacji i Nauki w ramach Programu Społeczna Odpowiedzialność Nauki II. Szczegółowe informacje na temat Konkursu można znaleźć na stronie internetowej: fizycznesciezki.pl. « powrót do artykułu
  4. W CERN-ie rozpoczęło się napełnianie ProtoDUNE, prototypu Deep Underground Neutrino Experiment (DUNE), budowanego w USA gigantycznego wykrywacza neutrin. Napełnianie ciekłym argonem jednego z dwóch detektorów ProtoDUNE potrwa niemal dwa miesiące. Komora jest olbrzymia, ma rozmiary trzypiętrowego budynku. Napełnianie drugiej komory rozpocznie się jesienią. A wszystko po to, by przetestować technologie, które będą wykorzystywane w DUNE, rozciągającym się na 1300 kilometrów eksperymencie, w skład którego wchodzi zespół detektorów wielkości 7-piętrowych budynków mieszczących dziesiątki tysięcy ton argonu. Główne cele ProtoDUNE to: przetestowanie procesów produkcyjnych i upewnienie się co do jakości uzyskanych komponentów, by uniknąć wszelkich ryzyk związanych z ich produkcją na potrzeby dalekiego wykrywacza DUNE (DUNE FD); zweryfikowanie procedur instalacyjnych oraz przetestowanie wszystkich połączeń pomiędzy elementami; zweryfikowanie obliczeń dotyczących projektu i jego wydajności poprzez prowadzenie eksperymentów z wykorzystaniem promieni kosmicznych; zebranie danych eksperymentalnych i zbadanie fizycznych reakcji detektora. Jak łatwo zauważyć, w czasie wypełniania argonem, wnętrze detektora pozornie zmieniło kolor ze złotego na zielony. Dzieje się tak, gdyż światło LED wewnątrz detektora odbija się od jego ścian, wpada do argonu, gdzie następuje zmiana długości fali, dzięki czemu wszystko świeci na zielono. Jeśli ProtoDUNE wydaje się imponujący, to co można powiedzieć o o DUNE? Ten gigantyczny międzynarodowy eksperyment będzie składał się z trzech głównych elementów: źródła neutrin o wysokiej intensywności, które będą generowane w akceleratorze protonów w legendarnym Fermilab, bliskiego detektora oraz znajdującego się 1500 kilometrów dalej i położonego 1,5 kilometra pod ziemią potężnego detektora złożonego z czterech komór zawierających po 10 tysięcy ton argonu schłodzonego do temperatury -185 stopni Celsjusza. Long Baseline Neutrino Facility (LBNF) to najbardziej intensywne źródło neutrin na świecie. Budowany na jego potrzeby liniowy akcelerator protonów Proton Improvement Plan II – w który zainwestowała Polska – będzie generował wiązkę protonów o mocy 1–1,2 MW. W LBNF protony te, o energiach 60–120 gigaelektronowoltów (GeV), będą zamieniane w wiązkę pionów i kaonów, które z kolei rozpadną się do neutrin. Wiązka musi być skierowana w stronę znajdującego się pod ziemią dalekiego wykrywacza. Dlatego całość umieszczono w sztucznym wzgórzu o wysokości niemal 18 metrów. A do roku 2030 moc wiązki protonów zostanie zwiększona do 2,4 MW. Daleki wykrywacz, DUNE FD (od DUNE Far Detector) będzie składał się z czterech modułów, a w każdym z nich masa ciekłego argonu w przestrzeni roboczej – czyli tej objętości, z której analizowane będą dane – wyniesie co najmniej 10 000 ton. Każdy z tych modułów zostanie umieszczony w osobnym kriostacie o wymiarach 15x14x62 metry, w którym znajdzie się około 17 500 ton ciekłego argonu. Niedawno ogłoszono zakończenie prac nad kopaniem gigantycznych jaskiń na potrzeby DUNE FD. Zawierający neutrina strumień cząstek wystrzelony z położonego 1300 kilometrów dalej LBNF trafi w argonowe detektory, a interakcja atomu argonu z neutrinem prowadzi do pojawienia się naładowanych cząstek jonizujących atom, co pozowali naukowcom na odkrycie interakcji i dokonanie pomiarów. Dodatkowo pojawi się rozbłysk światła, który ułatwi wykrywanie interakcji. Zanim jednak strumień z LBNF dotrze do DUNE FD, najpierw trafi do bliskiego detektora, czyli DUNE ND (Near Detector), znajdującego się w odległości 574 metrów od źródła neutrin. DUNE ND będzie służył jako urządzenie kontrolne eksperymentu, ograniczając liczbę błędów i mierząc spektra energii początkowych, niepodlegających oscylacjom, neutrin mionowych i elektronowych oraz ich antyneutrin. Porównanie spektrów energii neutrin w pobliżu ich źródła, zanim jeszcze dojdzie do jakichkolwiek oscylacji, oraz porównanie z wynikami pomiarów w DUNE FD pozwoli na usunięcie wiele niepewnych elementów z obliczeń. Ponadto w skład DUNE ND wchodzi między innymi detektor z gazowym argonem. Porównanie pomiarów interakcji neutrin z gazowym i z ciekłym argonem to kolejny ze sposobów na zwiększenie precyzji uzyskanych wyników. DUNE to wielki międzynarodowy projekt, w którym udział bierze ponad 1400 naukowców i inżynierów z 36 krajów. Obok USA zaangażowane są Polska (Uniwersytet Wrocławski, Uniwersytet Warszawski, Politechnika Warszawska), Ukraina, Niemcy, Chiny, Chile, Kanada, Armenia, Brazylia, Francja, Wielka Brytania, Hiszpania, Szwecja, Indie, Iran, Izrael, Madagaskar, Peru czy Japonia. W pracach biorą udział najlepsze uczelnie na świecie, w tym MIT, Uniwersytety Harvarda, Oksfordzki, Cambridge oraz 8 kolejnych uczelni sklasyfikowanych na pierwszych 20 miejscach światowej czołówki. Eksperyment ma rozpocząć prace w 2028 roku. Będzie badał neutrina, najpowszechniej występujące cząstki we wszechświecie, o których najmniej wiemy. A ten brak wiedzy wynika z faktu, że neutrina niemal nie wchodzą w interakcje z innymi cząstkami. Wszystko jest dla nich przezroczyste. W każdej sekundzie nasze ciała przebijane są przez biliony neutrin. Neutrino może przelecieć przez całą planetę, nie zderzając się z żadną inną cząstką. DUNE ma badać neutrina i poznać ich naturę, by móc odpowiedzieć na trzy główne pytania. Różnice w zachowaniu pomiędzy neutrinami a antyneutrinami być może dadzą odpowiedź na pytanie, czy to neutrina są odpowiedzialne za to, że wszechświat składa się z materii. Pracujący przy eksperymencie naukowcy będą chcieli też zaobserwować rozpad protonu, zjawisko, którego dotychczas nie obserwowano. Jeśli go zarejestrują i zbadają być może uda się zrealizować marzenie Einsteina o stworzeniu zunifikowanej teorii dotyczącej materii i energii. DUNE przyjrzy się też potężnym strumieniom neutrin emitowanym przez eksplodujące gwiazdy. To zaś pozwoli na obserwowanie w czasie rzeczywistym – z uwzględnieniem oczywiście czasu dotarcia strumienia do nas – procesu tworzenia się gwiazd neutronowych i czarnych dziur. Koszty projektu są spore i ciągle rosną. W 2014 roku zakładano, że budowa LBNF i DUNE pochłonie mniej niż 1,9 miliarda USD i zostanie ukończona w 2028 roku. Obecnie koszty szacuje się na 3,2 miliarda dolarów, a to nie wszystko. Prace podzielono bowiem na dwa etapy i te 3,2 miliarda USD to koszt DUNE z 2 detektorami w DUNE FD. Dwa pozostałe zostaną dodane później. Obecne prognozy przewidują, że DUNE ruszy nie wcześniej niż w 2031 roku. Osoby zainteresowane szczegółami eksperymentu, powinny sięgnąć po dwuczęściowe opracowanie Deep Underground Neutrino Experiment (DUNE) Far Detector Technical Design Report [1, 2]. « powrót do artykułu
  5. Jeden z najbardziej znanych spektakli afrykańskiej przyrody, olbrzymie migracje antylop gnu, odchodzą w przeszłość. Kolejne drogi, płoty, rozlewające się miasta, farmy i stada udomowionych zwierząt w coraz większym stopniu zakłócają wędrówkę antylop. To zaś, jak alarmują naukowcy z Uniwersytetu w Kopenhadze, prowadzi do degeneracji genetycznej stad, które nie są w stanie swobodnie się przemieszczać. Masowa migracja ma olbrzymie znaczenie nie tylko dla antylop, ale też dla polujących na nie lwy, hieny czy krokodyle i odgrywa ważną rolę w całym ekosystemie. Jednak wielka migracja ma jeszcze miejsce tylko w jednym miejscu Czarnego Lądu. W innych zaś antylopy nie mogą ani wziąć udziału w wielkiej migracji, ani nawet swobodnie przemieszczać się w poszukiwaniu wody i pożywienia. Nikt dotychczas nie zauważył, że to ma wpływ na genom antylop gnu. Nasze badania jasno jednak pokazują, że genom populacji, które już nie migrują, ale w przeszłości to robiły, jest w gorszym stanie. A te zmiany niekorzystnie wpływają na długoterminowe szanse przetrwania takich populacji, mówi profesor Rasmus Heller. Stada, które nie mogą już migrować, są bardziej izolowane genetycznie, mają mniejsze zróżnicowanie genetyczne i częściej dochodzi w nich do chowu wsobnego. Będzie to prowadziło do mniejszej przeżywalności, zmniejszonej płodności oraz innych negatywnych skutków dla sprawności zwierząt, dodaje jeden z autorów badań, Xiaodong Liu. Antylopa gnu jako gatunek nie jest obecnie zagrożona. Jednak spadek zróżnicowania genetycznego oznacza, że populacje, które go doświadczają mają mniejsze szanse na poradzenie sobie z wyzwaniami stawianymi przez zmieniający się klimat, to zaś grozi ich zagładą. Całkowita liczba gnu utrzymuje się na dość stabilnym poziomie, jednak w wielu lokalnych populacjach obserwuje się silne spadki liczebności, a część populacji uległa już załamaniu. Jeszcze 150 lat temu wiele populacji brało udział w wielkich migracjach. Jednak już 40 lat temu pozostały tylko 2 duże migracje. Słynna Wielka Migracja Serengeti-Mara oraz migracja na Pustyni Kalahari na południu Afryki. Obecnie tej drugiej już nie ma. W ostatnich dekadach w Bostwanie zaczęto stawiać coraz więcej ogrodzeń, które miały uniemożliwić kontakt pomiędzy zwierzętami hodowlanymi a dzikimi. W wyniku tych działań populacja gnu w Botswanie spadła z około 260 000 w latach 70. do mniej niż 15 000 pod koniec lat 80. Dzisiaj ostatnią z wielkich migracji jest Serengeti-Mara, ale i ona jest zagrożona przez plany rozwoju kolei i dróg w regionie, w którym się odbywa, mówi Mikkel Sinding. Antylopy gnu muszą migrować, by utrzymać liczną populację. Mogą przetrwać w lokalnych niemigrujących stadach, ale wówczas ich liczebność dramatycznie spada. Obserwujemy to właśnie w tych częściach Kenii i Tanzanii, w których człowiek uniemożliwił im migrację, stwierdza statystyk Joseph O. Ogutu. Gnu, przez swoje migracje, są jednym z kluczowych gatunków utrzymujących zdrowie ekosystemu. Zgryzając roślinność utrzymują ją w zdrowiu, roznoszą substancje odżywcze i same są źródłem pożywienia dla drapieżników oraz padlinożerców. Gdy uniemożliwiamy im migrację, to zagrażamy nie tylko temu gatunkowi, ale też wielu innym. Nie wspominając już o tym, że migracje przyciągają olbrzymią liczbę turystów oraz wpływy zarówno do budżetu, jak i dla lokalnych społeczności, dodaje Ogutu. Uczeni z Kopenhagi mają nadzieję, że ich praca zachęci innych naukowców do zbadania wpływu zaburzeń migracji na genetykę poszczególnych gatunków. Te badania pokazują, że dzikie zwierzęta, dla których migracja jest kluczowym elementem biologii, mają problemy z przetrwaniem w świecie coraz bardziej zdominowanym przez człowieka. [...] Dotyczy to wielu gatunków migrujących w Afryce i wszędzie indziej. Zależy nam na tym, by gatunki te przetrwały więcej niż, powiedzmy, 50 lat, by się rozwijały i przetrwały znacznie dłużej, musimy powstrzymać spadek ich różnorodności genetycznej spowodowany niszczeniem ich naturalnych tras migracji, komentuje profesor Heller. « powrót do artykułu
  6. Meteoryty to skarbnica informacji o Układzie Słonecznym. A najważniejszym ich źródłem jest Antarktyka, z której pochodzi około 60% dotychczas znalezionych okruchów z kosmosu. Lodowy kontynent może zawierać 300 000 – 800 000 meteorytów. Stosunkowo łatwo je znaleźć, gdyż są widoczne na białej powierzchni, a ruch lodu powoduje ich gromadzenie się w tzw. „strefach osiadania meteorytów”. Badacze z Belgii i Szwajcarii apelują o przyspieszenie tempa zbierania meteorytów w Antarktyce, gdyż z powodu globalnego ocieplenia coraz szybciej znikają one z powierzchni lodu. Uczeni z Wolnego Uniwersytetu Brukselskiego i Politechniki Federalnej w Zurychu wykorzystali sztuczną inteligencję, obserwacje satelitarne i modele klimatyczne, co pozwoliło im stwierdzić, że wraz z każdym wzrostem średniej globalnej temperatury powierza o 1/10 stopnia Celsjusza, z powierzchni Antarktyki znika około 9000 meteorytów. Przy założeniu scenariusza wysokiej emisji gazów cieplarnianych, do roku 2050 może w ten sposób zniknąć 1/4, a do końca wieku 3/4 meteorytów. Jak ocenili Veronica Tollenaar i Harry Zekollari oraz ich zespół, już obecne temperatury powodują, że z powierzchni znika około 5000 meteorytów rocznie. To pięciokrotnie więcej, niż jest znajdowanych w Antarktyce. Stąd też apele naukowców o przyspieszenie zbierania cennego materiału. Utrata meteorytów Antarktyki jest podobna do utraty danych rdzeni lodowych pobieranych z cofających się lodowców. Gdy takie meteoryty znikną nam z pola widzenia, znika też część tajemnic wszechświata, stwierdził Zekollari. Meteoryty mają ciemny kolor, więc nagrzewają się bardziej niż otaczający je lód. Roztapiają więc lód – a im wyższa temperatura powietrza, tym łatwiej im to przychodzi – i znikają pod jego powierzchnią. Nie muszą wnikać głęboko, by stać się niewykrywalne, a więc i stracone dla nauki. Co więc można zrobić? Zdaniem autorów badań należy zintensyfikować misje poszukiwawcze, wykorzystać dostępne dane w celu identyfikacji nieznanych „stref osiadania meteorytów” oraz stworzyć lepsze mapy obszarów niebieskiego lodu, na których często znajdowane są meteoryty. « powrót do artykułu
  7. W 2022 roku Teleskop Horyzontu Zdarzeń (Event Horizon Telescope – EHT) dostarczył pierwszych zdjęć Sagittariusa A* (Sgr A*), supermasywnej czarnej dziury w centrum Drogi Mlecznej. Niedawno na nowych obrazach z EHT uwieczniono silne, zorganizowane pola magnetyczne układające się spiralnie od krawędzie Sgr A*. Struktura tych pól jest bardzo podobna do pól magnetycznych czarnej dziury M87* w galaktyce M87, co może wskazywać, że obecność silnych pól magnetycznych jest czymś typowym dla czarnych dziur. Sgr A* znajduje się w odległości około 27 000 lat świetlnych od Ziemi. Jej badania wykazały, że mimo iż czarna dziura w środku naszej galaktyki jest ponad tysiąc razy mniejsza i mniej masywna niż czarna dziura w M87, to podobieństwo pomiędzy oboma obiektami jest uderzające. Astronomowie zaczęli więc zastanawiać się, czy oprócz zewnętrznego wyglądu obie czarne dziury może jeszcze coś łączyć. Przyjrzeli się więc Sgr A* w świetle spolaryzowanym. Wcześniejsze badania M87* pokazały, że pola magnetyczne wokół dziury powodują, że wyrzuca ona potężne strumienie materiału z powrotem do otoczenia. Uczeni z EHT chcieli sprawdzić, czy tak jest też w przypadku Sgr A*. Odkrycie bardzo podobnych pól magnetycznych skłania do przypuszczeń, że i w przypadku naszej czarnej dziury istnieją takie strumienie. Dowiedzieliśmy się, że silne i uporządkowane pola magnetyczne to kluczowy element interakcji czarnych dziur z gazem i materią, które je otaczają, stwierdziła Sara Issaoun z Center for Astrophysics | Harvard & Smithsonian. « powrót do artykułu
  8. Po trzech latach badań naukowcy z Uniwersytetu Oksfordzkiego i Uniwersytetu Nowej Południowej Walii stworzyli pierwszy „World Cybercrime Index”, w którym uszeregowali kraje pod kątem zagrożenia, jakie stwarzają miejscowi cyberprzestępcy. Okazuje się, że największym źródłem cyberprzestępczości na świecie jest Rosja, na drugie miejsce zestawienia trafiła Ukraina, na trzecim znalazły się Chiny, następnie USA, a po nich Nigeria. Index opiera się na danych uzyskanych od 92 czołowych światowych ekspertów z całego świata, którzy specjalizują się w badaniu cyberprzestępczości. Ekspertów poproszono o przyjrzenie się pięciu rodzajom cyberprzestępczości. Były to: tworzenie produków i usług (np. pisanie szkodliwego kodu, udostępnianie botnetów, shakowanych systemów czy produkcja narzędzi hakerskich), ataki i wymuszenia (np. ataki typu DoS czy ransomware), kradzież danych i tożsamości (np. phishing, kradzieże kont bankowych czy kart bankowych), oszustwa internetowe (prowadzone np. na aukcjach internetowych czy za pomocą zhakowanych kont firmowych) oraz pranie brudnych pieniędzy (np. fałszowanie kart kredytowych, wykorzystywanie słupów do transakcji finansowych). Następnie eksperci do każdej z tych kategorii przypisali kraje, które są najbardziej znaczącym źródłem takiego rodzaju przestępczości oraz by uszeregowali te kraje pod kątem profesjonalizmu, umiejętności technicznych oraz wpływu miejscowych kryminalistów na światową cyberprzestępczość. W rankingu ogólnym udało się zebrać wystarczającą liczbę danych, by sklasyfikować aż 97 krajów. Bezapelacyjnie największym źródłem światowej przestępczości jest Rosja. Zajęła 1. miejsce zdobywając 58,39 punktów rankingu World Cybercrime Index (WCI Score). Ukraina zdobyła 36,44 punkty, Chiny uzyskały 27,86 pkt, USA przypadło ich 25,01, a Nigerii 21,28. Na kolejnych miejscach znalazły się Rumunia (14,83), Korea Północna (10,61), Wielka Brytania (9,01), Brazylia (8,93) oraz Indie (6,13). W niechlubnej statystyce Polska znalazła się na 16. pozycji z 2,22 pkt. Oprócz 10 wymienionych wcześniej krajów wyprzedzają nas też Iran, Białoruś, Ghana, RPA, Mołdowa oraz Izrael. Zaraz za nami uplasowały się Niemcy, Holandia i Łotwa. Stawkę krajów, dla których udało się zdobyć wystarczającą ilość danych, zamykają zaś Azerbejdżan (0,13 pkt.), Dominikana, Luksemburg, Japonia, Mali, Syria, Gwinea-Bissau i Egipt (0,08 pkt.). « powrót do artykułu
  9. Grove, przedmieścia miasteczka Wantage w Wielkiej Brytanii, położone są w miejscu, które było zamieszkane od epoki brązu. Trafiono tam na pozostałości rzymskiej willi i liczne artefakty. A najciekawszymi z nich jest zestaw ściśle zwiniętych pasków ołowiu. Po rozwinięciu okazało się, że przypominają one rzymskie tabliczki złorzeczące i, chociaż wydają się niezapisane, to w połączeniu ze znalezionymi w willi miniaturowymi siekierkami wotywnymi, sugerują, że na terenie posiadłości znajdowało się miejsce rytualne bądź pielgrzymkowe. Odkryte zabytki świadczą o tym, że rzymska aktywność w tym miejscu trwała przez niemal całą obecność Imperium Romanum na Wyspach. Być może rozpoczęła się już w I wieku, a zakończyła może dopiero na początku wieku V. Archeolodzy znaleźli tam wysokiej jakości fragmenty tynku zdobione złożonymi motywami, w tym roślinnymi, pozostałości mozaiki, kafle typowe dla hypocaustum (system centralnego ogrzewania), ceramikę terra sigillata, setki monet, pierścienie, brosze oraz sprzączkę pasa z końskimi głowami datowaną na lata 350–450. Wydaje się, że pierwsze budynki powstały tutaj już w I wieku, a większość pochodzi z II wieku. Z czasem rozwinęły się w willę. Widoczne są ślady olbrzymiej wewnętrznej kolumnady, która mogła stać w budynku o powierzchni 500 metrów kwadratowych. Budynek ten przylega do willi, której korytarz biegnie wzdłuż frontu budynku, dając dostęp do poszczególnych pomieszczeń, oraz łączy główny budynek ze skrzydłami. To miejsce jest znacznie bardziej złożone niż przeciętne wiejskie stanowisko archeologiczne. Oczywistym jest, że znajdowało się tutaj ważne centrum lokalnej aktywności, która rozciągała się od epoki brązu po późny okres rzymski, stwierdziła Francesca Giarelli z Red River Archeology Group. Prace wykopaliskowe wciąż trwają, ale już widać, że dokonano ważnego odkrycia. Oprócz imponujących rozmiarów i zróżnicowania całej struktury, bardzo ważne są dowody na ciągłą rzymską aktywność w późnym IV, a może nawet w V wieku. Najlepszym tego dowodem jest sprzączka do pasa typu 1B, ozdobiona głowami koni. Takie artefakty są charakterystyczne nie tylko dla rzymskiej elity wojskowej, ale znajduje się je również we wczesnych pochówkach anglosaskich. Archeolodzy trafili też na ślady systematycznych przebudów, do których dochodziło prawdopodobnie pod koniec epoki rzymskiej. Jednym z takich przykładów może być stopiony ołów na środku podłogi jednego z pomieszczeń, co wskazuje na zmianę przeznaczenia materiału budowlanego. Podobne zjawisko obserwuje się w wielu rzymskich wielkich willach na terenie Brytanii, których przeznaczenie zmieniało się z czasem z wystawnego miejsca zamieszkania elity w miejsce nastawione na produkcję. Naukowcy wciąż badają ołowiane zwoje i miniaturowe wotywne siekierki. Podobne artefakty znane są w rzymsko-brytyjskich miejsc kultu i uważa się je za przedmioty wotywne. « powrót do artykułu
  10. Działalność człowieka zmienia planetę na wiele sposobów, a jednym z efektów tej zmiany jest bardzo szybki spadek populacji owadów. Specjaliści mówią, że mamy do czynienia z szóstym wymieraniem i próbują określić przyczynę tego zjawiska. Naukowcy z Instytutu im. Maxa Plancka w Jenie zauważyli, że w obecności zbyt dużego stężenia ozonu – takiego jakie występuje w wielu miejscach podczas gorących letnich dni – dochodzi do zniszczenia feromonów muszek owocowych, co znacząco zakłóca ich cykl rozrodczy. Zaczynają rozmnażać się międzygatunkowo lub próbują zapładniać przedstawiciela własnej płci. Niszczenie habitatów, intensywne rolnictwo, używanie pestycydów czy zanieczyszczenie światłem to jedne z wielu przyczyn szybkiego spadku liczby owadów. Rosnąca ilość CO2 w powietrzu powoduje spadek wartości odżywczych roślin, co przyczynia się do spadku liczebności wielu gatunków prostoskrzydłych (np. koniki polne). Liczebność owadów zmniejsza się od dziesięcioleci, a szczególnie zła sytuacja panuje w Europie. Teraz dowiadujemy się, że problemem może być też ozon, którego naturalna produkcja rośnie wraz ze wzrostem temperatury. Nanji Jiang, Bill Hansson i Markus Knaden już wcześniej dowiedli, że ozon rozrywa wiązania pomiędzy atomami węgla, które znajdują się w większości owadzich feromonów. Wskutek tego samce muszek owocowych nie są w stanie odróżnić samicy od innego samca i próbują rozmnażać się z obiema płciami. Podczas swoich najnowszych badań naukowcy postanowili sprawdzić, czy poprzez niszczenie feromonów ozon nie powoduje przypadkiem, że dochodzi do krzyżowania się gatunków. Chcieliśmy sprawdzić, czy zwiększony poziom ozonu nie znosi granic międzygatunkowych i jaki jest wpływ możliwej hybrydyzacji. Z wcześniejszych eksperymentów wiemy, że ozon może silnie zaburzyć wybór partnera przez samce. Nasze obecne badania wykazały, że nawet w obecności lekko podwyższonych poziomów ozonu, które obecnie powszechnie występują w wielu miejscach na Ziemi, dochodzi do łączenia się muszek z blisko spokrewnionymi gatunkami, co może przyczyniać się do spadku populacji owadów, gdyż takie hybrydowe potomstwo jest bezpłodne, mówi Nanji Jiang. Podczas eksperymentów naukowcy wykorzystali cztery gatunku z rodzaju Drosophila. Drosophila melanogaster oraz Drosophila simulans to gatunki kosmopolityczne, występujące na całym świecie. Z kolei Drosophila secheillia i Drosophila mauritiana są endemiczne dla wysp – odpowiednio – Seszeli i Mauritiusu. Gatunki te używają bardzo podobnych feromonów, ale każdy miesza je w specyficzny dla siebie sposób. Naukowcy przez dwie godziny wystawili muszki na działanie takich stężeń ozonu, jakie panują w miastach w bardzo upalne dni. Następnie samice miały okazję wybrać samce – z własnego i obcego gatunku – z którymi się rozmnożą. Po kilku godzinach samice oddzielono od samców i pozwolono im złożyć jajka. Uczeni przyjrzeli się młodym, które wykluły się z jaj i stwierdzili, że przy podwyższonym stężeniu ozonu znacznie częściej dochodzi do hybrydyzacji i pojawienia się bezpłodnego potomstwa, niż przy standardowych poziomach tego gazu. Wyniki badań zaskoczyły naukowców. Spodziewali się nieco większego odsetka hybrydyzacji, ale nie aż tak dużego, jak zaobserwowany. Muszki owocówki polegają bowiem nie tylko na feromonach, ale również odróżniają swój gatunek na podstawie specyficznego brzęczenia skrzydeł oraz wskazówek wizualnych. Byliśmy zaskoczeni, że w podwyższonym stężeniu ozonu niektóre samice były całkowicie niezdolne do odróżnienia samców własnego gatunku pomimo istniejących wskazówek dźwiękowych i wizualnych, mówi Bill Hansson. Owad kierują się zapachem nie tylko podczas wybierania partnera. Używają feromonów do komunikacji, ostrzegania się o niebezpieczeństwie, owady społeczne – jak mrówki – wykorzystują feromony do nawigowania w otoczeniu czy rozpoznawania mrówek z tego samego gniazda. Wiele z tych feromonów zawiera podwójne wiązania pomiędzy atomami węgla. Autorzy badań obawiają się, że coraz częstsze upalne dni i związane z tym zwiększone stężenie ozonu, mogą zaburzyć komunikację pomiędzy owadami. Planują więc przeprowadzenie kolejnych eksperymentów. Chcą się przyjrzeć, między innymi, mrówkom. « powrót do artykułu
  11. Encyklopedia Britannica to niewątpliwie jeden z najważniejszych zbiorów wiedzy encyklopedycznej. Dlatego, gdy Wydawnictwo Kropka zapytało, czy nie chcielibyśmy zrecenzować "Infografiki", książki z rodziny "Britannica. Nowa encyklopedia dla dzieci", nie mogliśmy odmówić. Byliśmy ciekawi, jak twórcy encyklopedii oraz wydawnictwo poradzili sobie z wymagającymi najmłodszymi klientami. Trafił do nas imponujący, świetnie wykonany tom. Kolorowe, twarde okładki kryją ponad 300-stronicową szytą książkę, która z pewnością dobrze zniesie traktowanie przez dzieci. Okładka to przedsmak tego, co czeka nas w środku. Wspaniałe grafiki przekazują dokładnie to, co autorzy przekazać chcieli. Nie musimy domyślać się, co widać na poszczególnych rysunkach, a twórcy użyli stonowanych kolorów, które nie rozpraszają, pozwalając z jednej strony skupić się na obrazkach, z drugiej zaś – na treści. No i ta treść... Olbrzymia ilość informacji, podanych tak, że ani nie można poczuć się przytłoczony, ani nie można się nudzić. I prawdę mówiąc, mimo że „Infografika” kierowana jest do dzieci, to kompendium wiedzy dla wszystkich. Czego tam nie ma... Dowiemy się, jakie nasiono jest najcięższe na świecie, gdzie i kiedy nastąpiły największe opady śniegu w ciągu 12 miesięcy, który mięsień w ciele człowieka jest największy i jaka jest temperatura powietrza w pobliżu pioruna (podpowiemy: jest znacznie cieplej niż na powierzchni Słońca). Książkę podzielono na 6 części. W 1. – Kosmos – poczytamy o planetach, czarnych dziurach, asteroidach czy mgławicach. „Lądy, wody i niebo” poświęcona jest wulkanom, piorunom, skałom oraz głębinom oceanicznym. Dziecko interesuje się zwierzętami? Jest o zwierzętach. Tych najszybszych, najsilniejszych, najmniejszych czy najbardziej wytrzymałych. W „Ciele człowieka” są informacje o mięśniach, kościach, mózgu czy kupie. A niejedno dziecko z pewnością chciałby się dowiedzieć ile wanien glutów produkuje w ciągu swojego życia. Są też infografiki o robotach, samochodach, książkach, sztuce i największych wynalazkach w historii. Ciekawość zaspokoją również miłośnicy drzew, grzybów czy skamieniałości. Każda z części kończy się przedstawieniem jednego z naukowców, którzy czuwali nad jakością merytoryczną książki oraz krótkim quizem, w którym możemy sprawdzić swoją wiedzę. Za każdym razem, gdy otwieramy „Infografikę” trafiamy na coś, o czym nie mieliśmy pojęcia. Na przykład o tym, że żyrafy śpią 40 minut na dobę i to na stojąco, a ludzie mają 35% DNA wspólnego z żonkilem. Dzięki niej dowiedzieliśmy się, że żuk gnojowy jest w stanie ciągnąć ciężar o 1110 razy większy od jego własnej masy, a najtwardszą naszą kością, jest kość skalista, stanowiąca część kości skroniowej. Autorzy „Infografiki” to uznana specjalistka od projektowania i wizualizacji danych Valentina D'Efilippo, pisarz, dziennikarz i redaktor „Britannica Magazine” Andrew Pettie oraz dziennikarz Conrad Quilty-Harper. Wspomagali ich dziennikarze specjalizujący się w gromadzeniu i analizie danych, a nad całością czuwało sześcioro naukowców z USA, Wielkiej Brytanii i Australii.
  12. Opieka nad osobami starszymi w domu jest ważnym zadaniem, które wymaga odpowiedniego przygotowania, zarówno emocjonalnego, jak i praktycznego. Zapewnienie komfortu oraz bezpieczeństwa seniorom pozwala im na zachowanie godności i możliwie największej samodzielności. Poniżej przedstawiamy kilka kluczowych kwestii, które warto rozważyć, organizując opiekę domową dla osób starszych. Ocena potrzeb seniora Pierwszym i fundamentalnym krokiem jest dokładna ocena potrzeb osoby starszej. Warto skonsultować się z lekarzem, który pomoże określić stan zdrowia seniora oraz ewentualne wymagania medyczne. Należy także rozważyć potrzeby psychologiczne i społeczne, takie jak wsparcie w utrzymaniu kontaktów z rodziną i przyjaciółmi czy zainteresowań, które sprawiają, że życie seniora jest pełniejsze. Przystosowanie przestrzeni życiowej Bezpieczeństwo jest priorytetem, dlatego ważne jest przystosowanie domu w sposób, który minimalizuje ryzyko wypadków. Instalacja poręczy, usunięcie progów, zapewnienie odpowiedniego oświetlenia i pozbycie się luźnych dywanów to tylko niektóre z działań, które mogą znacząco zwiększyć bezpieczeństwo. Ponadto, warto zainwestować w sprzęty ułatwiające codzienne czynności, jak podwyższone toalety czy krzesła prysznicowe. Organizacja opieki medycznej i wsparcia Regularne wizyty lekarza są kluczowe, ale równie ważne jest zorganizowanie dostępu do leków i możliwość szybkiego kontaktu z pomocą medyczną w razie nagłych wypadków. Warto rozważyć również zaangażowanie profesjonalnych opiekunów osoby starszej, którzy mogą zapewnić wsparcie w codziennych czynnościach, które senior może już wykonywać z trudem, takich jak mycie się, ubieranie czy przygotowywanie posiłków. Wsparcie emocjonalne Opieka nad osobami starszymi to nie tylko wsparcie fizyczne, ale także emocjonalne. Seniorzy często czują się izolowani, szczególnie jeśli ich stan zdrowia ogranicza możliwości wychodzenia z domu. Regularne rozmowy, wspólne spędzanie czasu, słuchanie ich opowieści i wspomnień może znacząco wpłynąć na ich samopoczucie. Dobrym rozwiązaniem jest zatrudnienie opiekunki nad osobą starszą, która w dużym stopniu zaspokoi potrzebę seniora w tym względzie. Wykorzystanie technologii Nowoczesne technologie mogą znacznie ułatwić opiekę nad seniorami. Systemy monitorujące, które informują o potencjalnych niebezpieczeństwach, aplikacje pozwalające na przypominanie o lekach czy nawet proste rozwiązania umożliwiające video rozmowy z rodziną to tylko niektóre z narzędzi, które mogą być pomocne. Planowanie przyszłości Ważne jest, aby nie tylko skupiać się na bieżących potrzebach seniora, ale także planować przyszłość. Rozmowy na temat opieki długoterminowej, życzenia dotyczące opieki paliatywnej czy nawet sprawy succession powinny być omówione z seniorem, co zapewni, że jego życzenia będą respektowane. Opieka nad osobami starszymi w domu wymaga planowania, empatii i zaangażowania. Kluczem jest stworzenie bezpiecznego, komfortowego środowiska, które umożliwi seniorom jak najdłuższe, samodzielne życie. Ważne jest, aby pamiętać o regularnej ocenie potrzeb i dostosowywaniu opieki w miarę zmieniających się okoliczności. Jeśli nie wiesz jak się do tego zabrać rozważ zatrudnienie opiekunki nad osobą starszą: https://veritas-polska.pl/ « powrót do artykułu
  13. Z ujawnionego właśnie raportu dowiadujemy się, że doktor Ranga Dias, naukowiec z University of Rochester, fałszował wyniki prowadzonych przez siebie badań. O naukowcu stało się głośno przed czterema laty, gdy opublikował na łamach Nature pracę, w której donosił o uzyskaniu nadprzewodnictwa w temperaturze pokojowej. Swoje stwierdzania powtórzył trzy lata później na łamach kolejnego artykułu. Szybko jednak pojawiły się wątpliwości co do uzyskanych wyników i uczciwości Diasa. W związku z tymi wątpliwościami Nature wycofało oba artykuły. Teraz poznaliśmy poufny 130-stronicowy raport ze śledztwa prowadzonego przez macierzystą uczelnię Diasa. Śledztwo, zakończone 8 lutego, prowadzone było przez 10 miesięcy przez doktorów Petera Celliersa i Mariusa Millota z Lawrence Livermore National Laboratory oraz Marcusa D. Knudsona z Sandia National Laboratories, którzy do tego zadania zostali wynajęci przez University of Rochester. Uczelnia zdecydowała się na wszczęcie śledztwa po tym, jak zaczęła otrzymywać od naukowców informacje o prawdopodobnych nieprawidłowościach. W sierpniu 2021 roku skargę taką złożył doktor Jorge Hirsch, profesor na Uniwersytecie Kalifornijskim w San Diego, pół roku później pojawiła się skarga profesora Dirka van der Marela z Uniwersytetu w Genewie, a następnie kolejne informacje od doktora Hirscha. Wszystkie one wskazywały na możliwość fałszowania danych przez Diasa. Śledczy przygotowali poufny raport, który został obecnie ujawniony, gdyż znalazł się w aktach pozwu sądowego wytoczonego przez Diasa jego macierzystej uczelni. Diasowi nie spodobało się, że uniwersytet odsunął go od nauczania i pracy badawczej. Gdy uczelnia nie uwzględniła jego skargi, Dias wystąpił do sądu. Z ujawnionego raportu dowiadujmy się, że w śledztwo włączyła się Narodowa Fundacja Nauki, jeden z głównych sponsorów amerykańskiej nauki, która w ramach programu CAREER przyznała Diasowi grant w wysokości 790 000 USD. Śledczy dowodzą, że Dias sfałszował dane nie tylko na potrzeby dwóch artykułów opublikowanych w Nature, ale również dwóch kolejnych. Jeden z nich ukazał się w Chemical Communications, a drugi w Physical Review Letters. W raporcie opisano, w jaki sposób Dias przez lata oszukiwał współpracowników, naukowców i wydawców pism naukowych. Komitet Śledczy zaleca, by [Diasowi] nie zezwalać na nauczanie studentów, bycie ich mentorem oraz jakiekolwiek nadzorowanie studentów, czy to w sali wykładowej czy laboratorium badawczym, by nie mógł nadzorować badań ani prowadzić niezależnych badań czy to finansowanych przez agendy rządowe, czy instytucje prywatne. Na Uniwersytecie stanowisko adiunkta wiąże się z zaufaniem, adiunkt jest wzorem, mentorem i może stać na czele zespołu badawczego. Ujawnione dowody wskazują, że [Diasowi] nie można ufać, był złym wzorem, złym mentorem i źle kierował zespołem badawczym. Wśród zebranych dowodów są i takie, które wskazują, że [Dias] lekceważył wątpliwości studentów, a jego postępowanie od rozpoczęcia śledztwa wskazuje na pewne zachowania wobec byłych już studentów, które mogą zostać uznane za prześladowanie. [Dias] oszukiwał też innych naukowców i redaktorów oraz wydawców pism naukowych, czytamy w raporcie. Okazało się, że Dias uciszał wątpliwości studentów i współpracowników tłumacząc je skomplikowanym procesem przetwarzania danych, zwlekał bądź odmawiał zaprezentowania surowych danych, kłamał odnośnie miejsca i czasu wykonywania pomiarów. Mimo, że nie było to przedmiotem śledztwa, w raporcie odnotowano liczne przypadki plagiatów, jakich dopuścił się Dias. Okazało się, że we własnym doktoracie przekopiował on fragmenty 18 różnych prac naukowych. Przypomnieli też, że już w 2017 roku, gdy Dias pracował na Uniwersytecie Harvarda, jego praca opublikowana w Science została ostro skrytykowana przez środowisko naukowe i niemal żaden z recenzentów nie zgodził się z wyciągniętymi w niej wnioskami. Obecnie University of Rochester próbuje zgodnie z prawem zwolnić Diasa z pracy jeszcze przed zakończeniem kontraktu podpisanego z nim na rok akademicki 2024/2025. Ma również zamiar wystąpić przeciwko niemu do sądu. « powrót do artykułu
  14. Międzynarodowy zespół naukowy, prowadzony przez ekspertów z Instytutu Maxa Plancka w Marburgu i Uniwersytetu w Marburgu natrafił na pierwszą regularną molekułę w naturze. Molekuła ta to syntaza cytrynianowa wytwarzana przez cyjanobakterie. Spontanicznie łączy się ona we wzór zwany trójkątem Sierpińskiego. Badania sugerują, że ten niezwykły kształt może być ewolucyjnym wypadkiem. W naturze znamy wiele mniej lub bardziej regularnych wzorów. Widzimy je w płatkach śniegu czy kalafiorach romanesco. Pojedyncze ich części przypominając całość. Kształty, które powtarzają się od najmniejszej skali po największą, zwiemy fraktalami. Jednak bardzo rzadko zdarzają się naturalne fraktale, które są niemal identyczne w każdej ze skal. Molekuły też posiadają pewną regularność, jednak tylko w niektórych skalach. Dotychczas nie znaliśmy żadnej molekuły, która byłaby fraktalem. Teraz naukowcy trafili na pierwszą taką molekułę. Zauważyliśmy tę strukturę zupełnie przypadkiem i nie mogliśmy uwierzyć w to, co pokazał nam mikroskop elektronowy. Ta proteina tworzy piękne trójkąty i w miarę jak się powiększa widzimy coraz większe i większe trójkątne wolne przestrzenie. Takiego zjawiska nie widzieliśmy nigdy w przypadku żadnej proteiny, mówi główna autorka badań, profesor Franziska Sendker. Uczeni przystąpili więc do badania, w jaki sposób tak niezwykła struktura mogła powstać. Poprosili o pomoc biologów strukturalnych z Uniwersytetu w Marburgu. To była jedna z najtrudniejszych, ale i najbardziej fascynujących, struktur, nad jakimi pracowałem, mówi Jan Schuller, którego zespół pomógł rozwiązać zagadkę fraktalnej molekuły. Badania pozwoliły określić, w jaki sposób powstał niezwykły kształt. Proces samoorganizowania się białek jest wysoce symetryczny. Poszczególne łańcuchy przyjmują takie samo ułożenie względem łańcuchów sąsiednich. Zawsze prowadzi to do pojawienia się gładkiej struktury w dużej skali. Takie białko nie jest fraktalem, nie ma dużej skali jego charakterystycznej strzępiastej struktury. Kluczem do powstania fraktalnej molekuły było złamanie tej symetrii. W syntazie cytrynianowej cyjanobakterii każdy z indywidualnych łańcuchów wchodził w nieco inne interakcje z sąsiadami, w zależności od pozycji we fraktalu. Proces samoorganizacji jest ewolucyjnie wykorzystywany do regulowania enzymów. Jednak w przypadku fraktalnej molekuły nie wydaje się, by kształt miał tu jakieś znaczenie, mówi biolog ewolucyjny Georg Hochberg. Gdy naukowcy zmanipulowali cyjanobakterie tak, by ich syntaza cytrynianowa nie była fraktalem, bakteriom w żaden sposób to nie przeszkadzało i rozwijały się całkowicie normalnie. Dlatego też badacze wysunęli hipotezę, że pojawienie się fraktala to nieszkodliwy wypadek ewolucyjny. Takie wypadki mogą mieć miejsce, gdy powstająca struktura nie jest zbyt trudna do stworzenia. Naukowcy postanowili przetestować tę hipotezę i wykorzystali metody statystyczne do sprawdzenia, jak wyglądało badane białko przed milionami lat. Następnie w laboratorium stworzyli takie białko i obserwowali jego ewolucję. Okazało się, że w wyniku niewielkiej liczby mutacji fraktalna syntaza cytrynianowa powstała w wielu liniach cyjanobakterii i szybko z nich zniknęła. Przetrwała tylko w pojedynczej linii. Chociaż nigdy nie będziemy całkowicie pewni, jak doszło do pojawienia się takie kształtu, to molekuła ta posiada wszystkie cechy struktury biologicznej, która pojawiła się przypadkiem bez widocznej przyczyny, tylko dlatego, że w łatwy sposób mogła się pojawić, wyjaśnia doktor Georg Hochberg, kierownik zespołu naukowego z Instytutu Mikrobiologii Lądowej im. Maxa Plancka w Marburgu. « powrót do artykułu
  15. Po niespodziewanym ponownym odnalezieniu w 2022 r. badacze opublikowali swoje ustalenia na temat jednego z najrzadszych i najsłabiej poznanych ptaków na świecie - zapylaka kolumbijskiego (Campylopterus phainopeplus). Artykuł naukowców z American Bird Conservancy (ABC), Narodowego Uniwersytetu Kolumbii, a także organizacji SELVA, ProCAT Colombia oraz World Parrot Trust ukazał się w bioRxiv i daje wgląd w nieudokumentowane wcześniej zachowania związane z żerowaniem, śpiewem oraz zalotami krytycznie zagrożonego kolibra. Nasze odkrycia pokazują, że ten wspaniały ptak może być doskonałym przykładem mikroendemizmu. Wydaje się bowiem, że występuje na ograniczonym obszarze w obrębie najważniejszego na świecie ośrodka kontynentalnego endemizmu – podkreśla główny autor badań Esteban Botero-Delgadillo. Naukowiec dodaje, że bardzo się cieszy, że badania mogą być kontynuowane, bo nadal mamy spore braki w wiedzy na temat biologii czy dystrybucji gatunku. Uzupełnienie tych luk pozwoli odpowiednio zaplanować długoterminową strategię ochrony zapylaka kolumbijskiego, który zamieszkuje Sierra Nevada de Santa Marta - masyw górski w północnej Kolumbii. Naukowcy stracili zapylaka z oczu na 64 lata. W roku 2010 został on sfotografowany i znowu zniknął. Odnalazł go w 2022 roku Yurgen Vega. Chwila, w której zobaczyłem zapylaka była niezwykle emocjonalna. Nie mogłem uwierzyć w to, co widzę. Adrenalina, emocje, trudno opisać to, co wówczas czułem, wspomina badacz. Siedem miesięcy później niezależnych obserwacji dokonali profesorowie Carlos Esteban Lara i Andrés M. Cuervo z Narodowego Uniwersytetu Kolumbii (Universidad Nacional de Colombia). Gatunek ten znajduje się na liście „10 najbardziej poszukiwanych zaginionych gatunków ptaków” społecznościowej inicjatywy Search for Lost Birds, która jest wspólnym dziełem BirdLife International, American Bird Conservancy oraz Re:Wild, nic więc dziwnego, że organizacje te natychmiast włączyły się w poszukiwania i badania gatunku. Znalezienie zapylaka kolumbijskiego było możliwe wyłącznie dzięki wspólnemu działaniu lokalnych społeczności, uczelni oraz lokalnych i międzynarodowych organizacji, stwierdza profesor Lara. Współpraca ta zaowocowała prowadzonym przez 16 miesięcy poszukiwaniem zapylaków oraz badaniem ich terytorium i zachowania. Uzyskane dane, w połączeniu z danymi historycznymi wskazują, że gatunek ten nie migruje, jak wcześniej sądzono, na obszary o innej wysokości nad poziomem morza. Żyje na jednym terenie i prawdopodobnie jest ograniczony do południowo-wschodnich stoków Sierra Nevada de Santa Marta wzdłuż basenu rzeki Guatapurí. Badania wskazują również, że terytoria samców, tokowiska i prawdopodobnie gniazda zakładane przez samice są silnie powiązane z obecnością lasów łęgowych i cieków wodnych, więc dla przetrwania gatunku konieczne jest zachowanie tego typu habitatów. « powrót do artykułu
  16. We wrześniu bieżącego roku wystartuje wyjątkowa misja Europejskiej Agencji Kosmicznej. Jej celem jest zademonstrowanie technologii precyzyjnych lotów w formacji, w celu generowania sztucznego zaćmienia Słońca na potrzeby badania jego korony. Jeśli misja się powiedzie, zyskamy nie tylko świetne narzędzie do badania atmosfery naszej gwiazdy, ale również technologię, która pozwoli na prowadzenie jeszcze bardziej ambitnych przedsięwzięć związanych z precyzyjnie pozycjonowanymi formacjami pojazdów w przestrzeni kosmicznej. Misja Proba-3 będzie składała się z dwóch pojazdów – Coronograph i Occulter. Zostaną one umieszczone na eliptycznej orbicie (apogeum 60 530 km, perygeum 600 km) wokół naszej planety. I stamtąd będą badały Słońce. Oba pojazdy będą przemieszczały się w odległości 144 metrów od siebie, pracując jak jedno wielkie urządzenie. Occulter będzie zasłaniał gwiazdę, dzięki czemu Coronograph zyska możliwość badania jej korony. Zaćmienia Słońca to okazja do prowadzenia wielu badań. To właśnie podczas całkowitego zaćmienia, które miało miejsce w 1868 roku w Indiach, francuski astronom odkrył hel w chromosferze Słońca, a podczas zaćmienia w 1919 roku Dyson i Eddington przeprowadzili jeden z pierwszych testów ogólnej teorii względności Einsteina, badając – z Sobral w Brazylii i Wyspy Książęcej w Afryce Zachodniej – różnice w ugięciu światła odległych gwiazd w polu grawitacyjnym Słońca. Skoro więc zaćmienia są tak przydatne dla nauki, dlaczego nie wywołać sztucznego zaćmienia na potrzeby konkretnego instrumentu naukowego? Robi się to od dawna, a teraz ESA spróbuje tej sztuki za pomocą pojazdów latających w formacji. Osiągnięcie tego będzie niezwykle trudne, gdyż najmniejsze odchylenie od wymaganych parametrów spowoduje, że eksperyment się nie uda. Prace nad misją były niezwykle długotrwałe. Podjęło się ich konsorcjum mniejszych państw członkowskich ESA pod kierunkiem Hiszpanii i Belgii, wyjaśnia Dietmar Pilz, dyrektor ds. technologii, inżynierii i jakości ESA. Pomysł na precyzyjne wywołanie sztucznego zaćmienia przez dwa pojazdy w kosmosie nie jest nowy. Próbowano tego już podczas programu Sojuz-Apollo. Celem Probe-3 jest rutynowe przesłanianie Słońca jednorazowo nawet przez 6 godzin w czasie pełnego okrążenia Ziemi, które będzie trwało 19 godzin i 36 minut. Korona słoneczna to bardzo interesujący obszar. Jest ona znacznie cieplejsza (ma ponad 1 milion stopni Celsjusza) niż powierzchnia Słońca (5500 stopni C), powstają w niej wiatry słoneczne, odpowiada za pogodę kosmiczną, to w niej rodzą się koronalne wyrzuty masy. Naukowcy badają ją zarówno z powodów czysto akademickich, jak i praktycznych. Pogoda kosmiczna i wyrzuty masy mają w końcu praktyczny wpływ na nasze życie. Koronę słoneczną bada się za pomocą wyspecjalizowanych teleskopów (koronografów) – zarówno naziemnych jak i kosmicznych – wykorzystujących zamontowane na nich specjalne osłony. Ich efektywność jest jednak ograniczona, gdyż do koronografu dociera rozproszone światło przedostające się przy krawędziach przesłony. Jednym ze sposobów na poradzenie sobie z tym problemem jest znaczne odsunięcie przesłony od koronografu. Oba urządzenia muszą znajdować się w bardzo precyzyjnie ustalonej odległości. Misja Proba-3 będzie ją utrzymywała dzięki technologii nawigacji satelitarnej, radiowej komunikacji pomiędzy oboma pojazdami, kamerom rozpoznającym obraz oraz promieniowi lasera odbijanemu między koronografem a przesłoną. « powrót do artykułu
  17. Na Lizard Island (Jiigurru) u wybrzeży stanu Queensland odkryto najstarszą w Australii ceramikę. Jej znalezienie rzuca wyzwanie przekonaniu, jakoby australijscy Aborygeni nie używali ceramiki aż do nawiązania kontaktu z Europejczykami. Ceramikę znaelziono podczas wykopalisk prowadzonych przez profesora Seana Ulma z Uniwersytetu Jamesa Cooka, który jest głównym badaczem w Australian Research Council Centre of Excellence for Australian Biodiversity and Heritage. Przez dwa lata archeolodzy badali na Jiigurru śmietnisko o głębokości 2,4 metra. Znaleźli tam dowody na istnienie osadnictwa, takie jak pozostałości małży oraz ryb łowionych i zjadanych przez żyjących tu ludzi. Szczątki te liczą sobie ponad 6000 lat. Na głębokości mniej niż metr pod powierzchnią znaleziono dziesiątki fragmentów ceramiki, których wiek oszacowano na 2–3 tysiące lat. To najstarsza ceramika w Australii, mówi profesor Ulm. Analizy ceramiki wykazały, że została ona wyprodukowana lokalnie, z użyciem materiałów pochodzących z wyspy. Czas powstania ceramiki nakłada się na okres, w którym lud Lapita z południa Papui-Nowej Gwinei rónież wytwarzał ceramikę. Odkrycie może więc wskazywać na istnienie długodystansowej wymiany kulturowej i innowacji technologicznych na długo zanim do Australii przybyli Europejczycy. Wszystko bowiem wskazuje na to, że Aborygeni z północnych regionów Queensland mieli kontakty ze społecznościami wytwarzającymi ceramikę na Nowej Gwinei. Odkrycie pokazuje nam, że tutejsze społeczności dysponowały zaawansowaną techniką podróży morskich, a obiekty te pozwalają nam lepiej zrozumieć wymianę kulturową, jaka przed tysiącami lat zachodziła na Jingurru, dodaje Ulm. Obecność ceramiki pokazuje, że lokalne społeczności prowadziły długodystansowy handel morski. O wymianie handlowej oraz kulturowej świadczą podobne ozdoby z muszli i bambusowe fajki, a ceramika pokazuje, że dochodziło też do wymiany technologii. Aborygeni nauczyli się wytwarzania naczyń z gliny i samodzielnie wykonywali je na Jiigurru. « powrót do artykułu
  18. NASA informuje, że dotychczas potwierdzono odkrycie 5602 egzoplanet, a na potwierdzenie czeka kolejnych 10 170 kandydatów na planety. Potwierdzone planety zostały znalezione w 4299 układach planetarnych. Mianem egzoplanety określa się planetę spoza Układu Słonecznego. Większość z nich krąży wokół gwiazd, chociaż są i takie, które samotnie przemierzają wszechświat. Kosmos może być pełen takich planet, które nie są związane grawitacyjne z żadną gwiazdą. Polscy naukowcy są jednymi z odkrywców takich obiektów. Pierwsze egzoplanety odkrył, we współpracy z Dale'em Frailem, polski astronom Aleksander Wolszczan. O odkryciu oficjalnie poinformowano w styczniu 1992 roku. Do końca 1999 roku poznaliśmy w sumie 30 planet pozasłonecznych. W roku 2010 wiedzieliśmy o istnieniu 511 takich obiektów, a do końca 2020 roku potwierdzono istnienie 4373 egzoplanet. Wśród wspomnianych 5602 potwierdzonych planet najwięcej, bo 1919, to obiekty podobne do Neptuna czy Urana. Kolejną grupą są gazowe giganty, które możemy porównać do Saturna oraz Jowisza. Jest ich 1786. SuperZiemi, czyli planet bardziej masywnych od Ziemi, ale lżejszych od Neptuna, które mogą być planetami skalistymi, gazowymi lub połączeniem obu tych typów, jest 1689. Kolejnych 200 egzoplanet to skaliste obietky typu ziemskiego o jądrach bogatych w żelazo. Podobne są do Merkurego, Wenus, Ziemi i Marsa. Najmniejsza grupa 8 planet to takie, których właściwości jeszcze nie określono. Naukowcy zgadzają się co do tego, że w samej tylko Drodze Mlecznej istnieje olbrzymia liczba planet. Niektórzy twierdzą, że jest ich około 100 miliardów, zdaniem innych szacunków ich liczba może sięgać 300 miliardów. Istnieje pięć metod wykrywania planet pozasłonecznych. Najczęściej (3309 przypadków) planety takie były wykrywane metodą tranzytu. Gdy pomiędzy obserwującym gwiazdę teleskopem, a samą gwiazdą, znajdzie się planeta, przesłoni ona część światła swojej gwiazdy. Badając te spadki jasności oraz spektrum docierającego do teleskopu światła, można nie tylko odkryć planetę, ale określić jej wielkość, temperaturę czy skład atmosfery. Drugą z owocnych metod, a wykryto za jej pomocą 1088 planet, jest badanie zmian prędkości radialnej gwiazdy. Mimo, że planety są niewielkie w stosunku do gwiazd, to wywierają na nie wpływ poprzez grawitację. Krążąca wokół gwiazdy planeta może spowodować, że gwiazda będzie się oddalała i przybliżała do obserwatora. To zaś powoduje, że pojawia się efekt Dopplera, zjawisko polegające na zmianie częstotliwości fali w zależności od tego, czy źródło fali przybliża się czy oddala od obserwatora. Efekt ten możemy obserwować na co dzień, słuchając samochodu jadącego na sygnale. Dźwięk syreny zbliżającej się karetki jest coraz wyższy lub coraz niższy, w miarę jak samochód się do nas zbliża i oddala. W przypadku światła jego spektrum przesuwa się w stronę fal czerwonych lub niebieskich. Kolejny sposób na egzoplanetę to mikrosoczewkowanie grawitacyjne. Wykorzystywany jest tutaj fakt, że masywne obiekty zaginają światło. Planeta może więc zagiąć światło odległej gwiazdy w tle, co nasze teleskopy zarejestrują jako pojaśnienie tej gwiazdy. Analiza takich zjawisk pozwoliła na odkrycie dotychczas 210 egzoplanet. Astronomowie potrafią też bezpośrednio obrazować egzoplanety, dzięki czemu odkryto 68 z nich. W tej technice największym problemem jest fakt, że gwiazdy są miliony razy jaśniejsze od planet. Wszelkie światło odbite przez planetę czy wypromieniowywane przez nią ciepło jest przesłaniane przez znacznie jaśniejszą gwiazdę macierzystą. Współczesna technologia pozwala jednak na zasłonięcie światła gwiazdy i obserwowanie dzięki temu emisji z planety. Ostatnią zaś, i najtrudniejszą do wykorzystania, metodą jest astrometria. Jak już wspominaliśmy, planeta wpływa na gwiazdę, powodując zmiany jej położenia w przestrzeni. Astronomowie wykonują więc serię zdjęć interesującej ich gwiazdy oraz gwiazd w jej otoczeniu i sprawdzają na nich odległość pomiędzy badaną gwiazdą a gwiazdami referencyjnymi. Jeśli odległość się zmieniła, analiza tych zmian może wskazać na istnienie planety. Jednak wykorzystywanie astrometrii w celu poszukiwania egzoplanet jest niezwykle trudne, gdyż zmiany położenia gwiazdy są niewielkie. Badania takie wymagają użycia układów optycznych najwyższej jakości, a szczególnie trudne jest ich wykonywanie z powierzchni Ziemi, gdyż sama atmosfera zakłóca obserwacje. Dlatego też dotychczas w ten sposób odnaleziono jedynie 3 planety pozasłoneczne. Tylko 247 spośród znanych nam egzoplanet krąży wokół gwiazd widocznych gołym okiem, a jedynie 96 znajduje się w układach, w których znamy więcej niż 1 planetę. Interesujący jest też sposób nazywania gwiazd i planet. Zwykle stosuje się system numeryczny, niewiele gwiazd i planet ma własne nazwy. Pierwszą część nazwy stanowi zwykle nazwa teleskopu lub projektu badawczego, w ramach którego wykryto egzoplanetę. Następnie mamy cyfrę oznaczającą kolejny numer, pod którym skatalogowano gwiazdę, a później następuje mała litera, oznaczająca planetę. Planeta najbliższa gwieździe zostaje oznaczona jako „b”, gdyż sama gwiazda, wokół której planeta krąży, jest domyślnie uznawana za „A”. Gwiazdy mają duże litery, planety małe, co jest przydatne, gdy znajdziemy układ podwójny czy wielokrotny gwiazd. Tak więc planeta Kepler-16b to planeta najbliższa (b) gwieździe, która jako 16. z kolei została skatalogowana przez Teleskop Keplera. Zgodnie z tą konwencją Ziemię moglibyśmy oznaczyć jako Słońce d (Słońce, czyli nazwa gwiazdy, a „d” to trzecia najbliższa jej planeta, poczynając od Merkurego, który zostałby oznaczony jako „b”). Wśród wszystkich potwierdzonych egzoplanet najbliższa Ziemi jest Proxima Centauri b, położona w odległości 4 lat świetlnych od nas. Najbardziej zaś oddalone, dla których udało się określić odległość, to SWEEPS-4 b i SWEEPS-11 b. Obie położone są w odległości 27727 lat świetlnych. Najlżejsza ze znanych egzoplanet to PSR B1257+12 b o masie 0,02 mas Ziemi, a najbardziej masywna, Kepler-297 d, ma masę 282 razy większą niż masa Jowisza. Z pełnym katalogiem potwierdzonych egzoplanet można zapoznać się na stronie NASA. « powrót do artykułu
  19. Każda kolejna ciąża we wczesnej dorosłości powoduje, że organizm kobiety starzeje się o dodatkowe 2,4–2,8 miesięcy. Naukowcy z Mailman School of Public Health na Columbia University przeprowadzili badania na 1735 młodych mieszkankach Filipin. Wykazali, że organizmy kobiet, które były w ciąży, były biologicznie starsze od organizmów kobiet, które w ciąży nie były, a panie, które miały za sobą więcej ciąż były biologicznie starsze od koleżanek, które rzadziej zachodziły w ciążę. Przyspieszonego starzenia biologicznego organizmu nie zauważono w przypadku mężczyzn, co wskazuje, że przyczyną nie jest samo posiadanie dziecka, ale coś powiązanego z ciążą lub karmieniem piersią. Uczeni z Columbia University zajęli się tym tematem, gdyż chcieli bliżej przyjrzeć się wynikom badań epidemiologicznych, z których wynikało, iż większa płodność może mieć negatywny wpływ na zdrowie i długość życia kobiet. Z badań tych nie można było się jednak dowiedzieć, czy koszty związane z większą płodnością ujawniają się w młodszym wieku, zanim jeszcze pojawią się choroby i inne dolegliwości związane z wiekiem. Naukowcy wykorzystali więc badania metylacji DNA, które pozwalają sprawdzić tzw. zegar epigenetyczny. To pozwala na ustalenie wieku biologicznego tkanek. Pojawienie się zegara epigenetycznego zrewolucjonizowało sposób, w jaki badamy tempo biologicznego starzenia się w czasie życia. Otwiera on przed nami nowe możliwości badania długoterminowych kosztów reprodukcji i innych życiowych wydarzeń, mówi główny autor pracy, doktor Calen Ryan. Nasze badania sugerują, że ciąża przyspiesza biologiczne starzenie się i widać to już u młodych wysoce płodnych kobiet. To również pierwsze badania, w czasie których śledziliśmy te same kobiety przez długi czas, łącząc każdą z ciąż ze zmianami wieku biologicznego, dodaje uczony. Związek pomiędzy ciążą, a przyspieszoną pracą zegara epigenetycznego istniał nawet po uwzględnieniu wielu innych czynników wpływających na przyspieszenie biologicznego starzenia się, takich jak palenie, status społeczno-ekonomiczny czy genetyka. Doktor Ryan przestrzega jednak przed wyciąganiem pochopnych wniosków z badań. Wiele z kobiet, które badaliśmy, zaszło w ciążę w późnym wieku nastoletnim, gdy ich organizmy wciąż się rozwijały. Taka ciąża może stanowić szczególne wyzwanie dla organizmu, zwłaszcza tam, gdzie dostęp do opieki zdrowotnej i innych zasobów jest ograniczony, mówi. Uczony dodaje, że wiele jeszcze nie wiemy o wpływie ciąży i innych aspektów reprodukcji na proces starzenia się organizmu. Nie wiemy też, do jakiego stopnia przyspieszone starzenie się badanych kobiet będzie miało wpływ na ich zdrowie i śmiertelność za kilka dekad. « powrót do artykułu
  20. Uniwersytet w Edynburgu poinformował, że przed dwoma dniami, 8 kwietnia, po krótkiej chorobie zmarł profesor Peter Higgs. Uczony zyskał sławę w świecie nauki po tym, jak w 1964 roku przewidział istnienie nieznanej wówczas cząstki, bozonu Higgsa. Na potwierdzenie istnienia tej cząstki trzeba było czekać 48 lat, a do jej wykrycia konieczne było wybudowanie Wielkiego Zderzacza Hadronów. Bozon został odkryty w 2012 roku, a rok później profesor Higgs otrzymał Nagrodę Nobla za przewidzenie jego istnienia. Peter Higgs urodził się 29 maja 1929 roku w Wielkiej Brytanii. Późniejszy noblista w dużej mierze uczył się w domu. Było to spowdowane z jednej strony astmą, na którą cierpiał, z drugiej zaś pracą jego ojca, który jako inżynier dźwięku BBC często się przeprowadzał. W latach 1941–1946 uczęszczał do Cotham Grammar School w Bristolu, gdzie zainteresowały go prace byłego ucznia tej szkoły, Paula Diraca, jednego z twórców mechaniki kwantowej. Higgs studiował matematykę i fizykę, w 1954 roku uzyskał doktorat z fizyki molekularnej. Podstawą teorii, która przyniosła Higgsowi sławę, były prace japońskiego noblisty z University of Chicago, Yoichiro Nambu. W swojej pierwszej pracy Higgs wykazał niedociągnięcia w teorii Nambu. Następnie napisał drugi artykuł, w którym opisał własny model teoretyczny, ale tekst został odrzucony przez redaktorów Physics Letters, którzy stwierdzili, że nie ma on oczywistych związków z fizyką. Higgs dopisał więc dodatkowy akapit i wysłał go do Physical Review Letters, gdzie artykuł opublikowano. W tym samym mniej więcej czasie do podobnych wniosków co Higgs doszli inni naukowcy (Brout i Englert oraz Guralnik wraz z Hagenem i Kibble'em). W swojej pracy Higgs powołał się na artykuł Brouta i Englerta, a w trzecim artykule Higgs powołał się na swoje dwa poprzednie. Z czasem prace wszystkich wymienionych naukowców uznano za równie ważne dla rozwoju teorii Higgsa. Jednak z sobie tylko znanych powodów Królewska Szwedzka Akademia Nauk przyznała nagrodę Nobla tylko Higgsowi i Englertowi (Brout zmarł w 2011 roku), pomijając Guralnika, Hagena i Kibble'a. Dnia 4 lipca 2012 roku CERN poinformował o odkryciu bozonu Higgsa. Rok później profesor Higgs i François Englert podzielili się Nagrodą Nobla z fizyki za odkrycie mechanizmu Brouta-Englerta-Higgsa, zwanego polem Higgsa. Koncepcja pola Higgsa została wykorzystana do stworzenia Modelu Standardowego. Peter Higgs był niezwykłą indywidualnością. Utalentowanym naukowcem, którego wizje i wyobraźnia wzbogaciły wiedzę o otaczającym nas świecie. Jego pionierskie prace stały się motywacją dla tysięcy naukowców, a jego spuścizna będzie inspirowała przyszłe pokolenia, stwierdził profesor Peter Mathieson, rektor Uniwersytetu w Edynburgu. « powrót do artykułu
  21. Po 9 latach pracy naukowcy i inżynierowie ze SLAC National Accelerator Laboratory ukończyli budowę Legacy Survey of Space and Time (LSST) Camera. Urządzenie o rozdzielczości 3200 megapikseli zostanie zamontowane w Vera C. Rubin Observatory, które ma po raz pierwszy zostać uruchomione w styczniu przyszłego roku. Niezwykły aparat będzie co 20 sekund wykonywał fotografię o czasie ekspozycji 15 sekund i w ciągu 10 lat dostarczy olbrzymią ilość danych, które pozwolą na lepsze zrozumienie ciemnej energii, badanie ciemnej materii, Drogi Mlecznej i Układu Słonecznego. Biorąc pod uwagę przerwy techniczne, nieodpowiednią pogodę i inne przerwy w pracy, LSST powinien dostarczać około 200 000 zdjęć rocznie. Wspomniane 3200 megapikseli to rozdzielczość tak duża, że pozwala na zarejestrowanie piłeczki golfowej z odległości 25 kilometrów. Aparat korzysta z 201 czujników CCD o rozdzielczości 16 megapikseli każdy. Każdy z pikseli ma szerokość około 10 mikrometrów, a całość jest niezwykle płaska. Nierówności nie przekraczają 1/10 grubości ludzkiego włosa. Dzięki tak małym pikselom i tak płaskiej powierzchni, możliwe jest wykonywanie zdjęć w niezwykle wysokiej rozdzielczości. Aparat, w połączeniu z możliwościami lustra teleskopu Vera C. Rubin Observatory, pozwoli na rejestrowanie obiektów, które są 100 milionów razy mniej jasne, niż minimalna jasność wymagana, by zauważyło je ludzkie oko. Przednia soczewka aparatu ma ponad 1,5 metra średnicy, jest największą soczewką jaka kiedykolwiek powstała na potrzeby aparatu astronomicznego. Druga, metrowej średnicy soczewka, ma korygować wszelkie błędy pierwszej i stanowi też zamknięcie komory próżniowej, w której znajdują się czujniki CCD. Będą one pracowały w temperaturze około -100 stopni Celsjusza, co ma pomóc w redukcji zakłóceń. Badania ciemnej materii i ciemnej energii to istotna część współczesnej fizyki. Bardziej niż kiedykolwiek wcześniej lepsze zrozumienie podstawowych praw fizyki wymaga od nas coraz głębszego spoglądania w kosmos. Dzięki LSST Camera Rubin Observatory zajrzy głębiej w przestrzeń kosmiczną i pomoże nam odpowiedzieć na jedne z najtrudniejszych i najważniejszych pytań współczesnej fizyki, stwierdza Kathy Turner, odpowiedzialna w Departamencie Energii za Cosmic Frontier Program. Gdy LSST Camera trafi do Simonyi Survey Telescope na Cerro Pachón w Andach, będzie określał pozycje i mierzył jasność olbrzymiej liczby obiektów na nocnym niebie. Z tych danych naukowcy wyciągną wiele pożytecznych wniosków. Będą przede wszystkim poszukiwali sygnałów słabego soczewkowania grawitacyjnego, które pozwoli lepiej określać rozkład masy we wszechświecie oraz ewolucję tego rozkładu w czasie. To z kolei pomoże zrozumieć, jak ciemna energia napędza rozszerzanie się wszechświata. « powrót do artykułu
  22. Podczas prac przy projekcie drogowym Oosterweel Link, brakującym odcinku obwodnicy Antwerpii, trafiono na niezwykły zabytek – jedyny zachowany czerwonawo-brązowy kontener kolejowy LNER. Nie wiadomo kto, kiedy i dlaczego zakopał go na betonowym postumencie przy Noordkasteel, XIX-wiecznym forcie, który w 1934 roku został zmieniony w tereny rekreacyjne. Niestety, ku rozpaczy archeologów i miłośników kolejnictwa, kontener nie wytrzymał prac wykopaliskowych. Jego drewniane ściany rozsypały się i po znalezisku pozostały tylko zdjęcia. Jeszcze w XIX wieku brytyjskie koleje woziły towary w zwykłych kwadratowych skrzyniach. Firmy kolejowe dość szybko stworzyły standardowe kontenery, które łatwiej było ładować i załadowywać na wagony. Około 1930 roku powstał pierwszy model kontenera LNER – London North Eastern Railway – jednej z czterech działających w Wielkiej Brytanii firm kolejowych. Był on malowany na kolor czerwonawo-brązowy, który po kilku latach zastąpiono niebieskim. Znaleziony kontener miał numer BK765, dzięki czemu wiemy, że został zbudowany w roku 1935 lub 1936. Litera B oznacza, że to kontener pełnowymiarowy o pojemności 4 ton imperialnych (4064 kg), a K to symbol kontenera do przewozu mebli. Zachowały się na nim fragmenty napisów, jak „...NITURE REMOVAL TO HOUSE” czy „LNER”. Nie wiadomo, kiedy kontener dotarł do Antwerpii i jak znalazł się przy Noordkasteel. Prawdopodobnie kontener został ustawiony na terenie rekreacyjnym, służąc jako magazyn, miejsce sprzedaży biletów lub schronienie przed słońcem. « powrót do artykułu
  23. Na Uniwersytecie Jagiellońskim zidentyfikowano syntetyczny polimer o silnych właściwościach przeciwgrzybicznych i niskiej toksyczności. Jego odkrycie to wynik wieloletniej pracy zespołu doktor Magdaleny Skóry z Collegium Medicum i dra Kamila Kamieńskiego z Wydziału Chemii UJ. Kierowane przez uczonych zespoły badały polimery pod kątem ich zastosowania w przemyśle kosmetycznym i medycynie. Szczególnie interesowały ich substancje, których można by użyć do leczenia grzybicy, gdyż liczba obecnie stosowanych jest ograniczona. Polimer, o którym mowa, dobrze rozpuszcza się w wodzie i alkoholach, może więc być używany w substancjach do stosowania na skórę czy paznokcie. Jest łatwy do wytworzenia i stosunkowo niedrogi. Badany przez nas związek chemiczny jest polimerem kationowym – ma dodatni ładunek. Cecha ta umożliwia oddziaływanie polimeru z ujemnie naładowanymi błonami biologicznymi żywych organizmów. To zapewne jeden z czynników mających wpływ na jego skuteczność. W naszej ocenie polimer wchodzi w interakcję z komórkami grzybów, nie pozwalając im na podziały czy tworzenie strzępek. W badaniach laboratoryjnych obserwujemy zahamowanie wzrostu grzybów w obecności polimeru. Jednocześnie potwierdziliśmy w badaniach na liniach komórkowych, że polimer wykazuje niską toksyczność w stosunku do komórek ssaczych. Ma on więc działanie wysoce selektywne, ukierunkowane właśnie na grzyby, wyjaśnia dr Skóra. Badania in vitro potwierdziły, że związek skutecznie działa na wywołujące zakażenia skóry i paznokci grzyby z rodzaju Trichophyton czy też Fusarium, które wywołują grzybice u ludzi, zwierząt i roślin. Badany polimer jest mniej toksyczny od stosowanych obecnie substancji antymykotycznych. Niska toksyczność w stosunku do komórek ssaczych to nie jedyny walor tego polimeru. Odkryliśmy również, że jest on skuteczniejszy in vitro od niektórych stosowanych obecnie substancji leczniczych, ponieważ efekt przeciwgrzybiczy pojawia się przy kilkukrotnie mniejszych stężeniach, dodaje doktor Skóra. Obecnie naukowcy skupiają się na badaniach nad toksycznością i optymalizacją stężeń w stosunku do różnych gatunków grzybów oraz nad komercjalizacją polimeru. « powrót do artykułu
  24. Naukowcy z University of Cambridge zauważyli warianty genów, które mają największy znany wpływ na rozwój otyłości u dorosłych. Badania, których wyniki opublikowano na łamach Nature Genetics, prowadzone były przez Medical Research Council oraz Institute of Metabolic Science. Wykorzystano podczas nich sekwencjonowanie całoeksomowe (WES) i informacje o BMI u 587 000 osób. Uczeni odkryli warianty genu BSN (Bassoon), które zwiększają ryzyko otyłości aż 6-krotnie i są powiązane ze zwiększonym ryzykiem niealkoholowego stłuszczenia wątroby oraz cukrzycy typu 2. Znaleziono je u 1 na 6500 dorosłych osób, co oznacza, że w Polsce problem może dotyczyć około 5000 osób. Duże ryzyko stwarzają też warianty APBA1. Otyłość ma liczne przyczyny, w tym genetyczne. Są one jednak słabo rozumiane. Już wcześniej odkryto liczne warianty genów, które powiązano z otyłością u dzieci. Geny te powiązane są ze szlakiem leptyna/melanokortyna, który odgrywa kluczową rolę w regulowaniu apetytu przez podwzgórze. Co prawda w mózgu występują białka kodowane przez BSN i APBA1, jednak nic nie wiadomo, by były one powiązane ze szlakiem leptyna/melanokortyna. Ponadto warianty BSN i APBA1 nie są powiązane z otyłością dziecięcą. Dlatego uczeni z Cambridge sądzą, że odkryli nieznany mechanizm powstawania otyłości, odmienny o mechanizmów powiązanych z dotychczas znanymi wariantami genetycznymi. Zidentyfikowaliśmy dwa geny, których warianty wywierają największy wpływ na otyłość ze wszystkich znanych nam czynników genetycznych. Jeszcze ważniejszy jest fakt, że warianty w BSN są powiązane z otyłością u dorosłych, a nie u dzieci. Odkrycie to pozwala nam na nowo docenić związki genetyki, rozwoju układu nerwowego i otyłości, mówi profesor Giles Yeo z MRC Metabolic Diseases Unit. « powrót do artykułu
  25. Jednym z największych problemów, z jakim muszą mierzyć się twórcy komputerów kwantowych, jest olbrzymia liczba błędów, które generują takie maszyny podczas obliczeń. W przeciętnej maszynie kwantowej odsetek błędów wynosi 1:1000 (10-3). W niektórych komputerach jest to aż 1:100, a najlepszy odsetek błędów wynosi 1:10 000 (10-4). To zdecydowanie zbyt dużo. Wielu ekspertów uznaje, że o użytecznym komputerze kwantowym będziemy mogli mówić, gdy odsetek błędów spadnie do 10-12. Odsetek błędów w komputerach klasycznych wynosi 10-18. Jedną z firm, które od dawna pracują nad problemem błędów w komputerach kwantowych, jest Microsoft. Wśród rozwiązań, jakie proponują tamtejsi eksperci, jest tworzenie mniejszej liczby logicznych kubitów, z większej liczby kubitów fizycznych. Powstaje w ten sposób system wirtualizacyjny kubitów. W arXiv udostępniono artykuł, w którym opisano efekty współpracy inżynierów Quantinuum i Microsoftu. Firma Quantinuum dostarczyła komputer kwantowy H2, który korzysta z kubitów w pułapce jonowej, natomiast wkład Microsoftu to oprogramowanie do wirtualizacji kubitów. W ramach testów użyto 30 z 32 dostępnych na H2 kubitów fizycznych i utworzono 4 kubity logiczne. Całość przetestowano uruchamiając 14 000 eksperymentów. Okazało się, że wszystkie wypadły bezbłędnie, nie wykryto żadnego błędu. Kolejne testy wykazały, że odsetek błędów generowanych przez system wynosi 1:100 000 (10-5), jest więc 800-krotnie niższy niż na maszynie H2 pracującej bez oprogramowania Microsoftu. Autorzy eksperymentu twierdzą, że stworzyli komputer kwantowy 2. poziomu, czyli taki, który charakteryzuje dość niski odsetek błędów oraz możliwość dalszego skalowania i poprawiania jakości pracy. « powrót do artykułu
×
×
  • Dodaj nową pozycję...