Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37086
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    231

Zawartość dodana przez KopalniaWiedzy.pl

  1. Głęboko pod powierzchnią oceanu, w miejscu, w którym fotosynteza jest niemożliwa, coś wytwarza olbrzymie ilości tlenu. Odkryliśmy dodatkowe źródło tlenu na Ziemi, inne niż fotosynteza, mówi jeden z autorów badań, Andrew Sweetman, ekolog dna morskiego w Szkockim Towarzystwie Nauki o Morzu (SAMS). Zdaniem uczonego, odkrycie może mieć wpływ zarówno dla rozumienia początków życia, jak i dla planów aktywności górniczej w tym regionie. Wiemy, że tlen powstaje w procesie fotosyntezy, w którym wytwarzające go organizmy korzystają z energii słonecznej. W Nature Geoscience ukazał się właśnie artykuł, którego autorzy informują o zaobserwowaniu zjawiska wytwarzania tlenu w kompletnej ciemności, na głębokości 4000 metrów pod poziomem oceanu. Sweetman i jego zespół po raz pierwszy trafili na ten – jak go nazwali – „ciemny tlen” w 2013 roku. Badali wówczas dno morskie w strefie Clarion-Clipperton. To obszar oceanu pomiędzy Meksykiem a Hawajami, w którym znajduje się niezwykle bogaty ekosystem. Jest on jednak narażony na zagładę, gdyż wiele firm chciałoby prowadzić na dnie działalność górniczą. Dlatego też uczeni intensywnie badają ten obszar, by jak najlepiej go poznać i dzięki temu spróbować ocalić. Niedawno informowaliśmy o odkryciu tam kolejnych niezwykłych gatunków, w tym prawdopodobnie najdłużej żyjących zwierząt na Ziemi. W czasie badań prowadzonych przed 11 laty zespół Sweetmana wrzucił do oceanu specjalny przyrząd badawczy, który usiadł na dnie i przeprowadzał tam automatyczne eksperymenty. Instrument uwalniał cylindryczne urządzenia, które otaczały niewielki fragment dna wraz z wodą, tworząc tam „zamknięty mikrokosmos”. Następnie mierzył zmiany koncentracji tlenu na zamkniętym obszarze. Sweetman wiedział, że bez organizmów przeprowadzających fotosyntezę głębokie warstwy oceanu i żyjące tam organizmy uzależnione są od transportu tlenu w powierzchni. A skoro badany obszar został odcięty od wpływów z zewnątrz, koncentracja tlenu powinna w nim spadać. Uczony obserwował to podczas licznych badań, jakie prowadził na Oceanie Indyjskim, Atlantyku, Oceanie Arktycznym i Południowym. Jednak pomiary prowadzone w strefie Clarion-Cliperton wykazały, że stężenie tlenu w wodzie rośnie, a nie spada. Uczeni uznali takie wyniki pomiarów za błąd przyrządów. Jednak kolejne badania, przeprowadzone w 2021 i 2022 roku, dały podobne wyniki i zostały potwierdzone za pomocą pomiarów alternatywną techniką. Nagle zdałem sobie sprawę, że przez osiem lat ignorowałem istnienie nowego zadziwiającego procesu, który ma miejsce na głębokości 4000 metrów, przyznaje Sweetman. Żeby na planecie powstały tlenowce, musi istnieć na niej tlen. Zgodnie z naszą obecną wiedzą, źródłem tlenu na Ziemi były organizmy przeprowadzające fotosyntezę. Teraz dowiadujemy się, że tlen powstaje w głębiach oceanów, gdzie nie ma światła. Myślę, że musimy na nowo zadać sobie pytanie, gdzie narodziły się organizmy aerobowe, stwierdza uczony. Strefa Clarion-Clipperton interesuje firmy wydobywcze, gdyż na jej dnie znajdują się polimetaliczne buły – konkrecje czyli agregaty mineralne – zawierające nikiel, kobalt czy mangan. I to właśnie na wydobywaniu tych konkrecji chcą zarabiać koncerny. Z badań zespołu profesora Sweetmana wynika, że to właśnie one mogą być źródłem tlenu w głębinach oceanów, a więc być może i czynnikiem, który zapoczątkował życie na Ziemi takim, jakie znamy obecnie. Podczas eksperymentów naukowcy zauważyli bowiem, że buły generują ładunki elektryczne, które z kolei mogą prowadzić do pojawienia się zjawiska elektrolizy. W słonej morskiej wodzie wystarczy napięcie rzędu 1,5 wolta, by doszło do elektrolizy i rozbicia wody na tlen i wodór. Uczeni przeanalizowali liczne buły i odkryli, że napięcie na powierzchni niektórych z nich dochodzi do 0,95 V. Buły często występują na dnie morskim w skupiskach, zatem napięcie generowane przez takie skupisko może bez najmniejszego problemu przekraczać wspomniane 1,5 wolta i prowadzić do elektrolizy. Profesor Sweetman podkreśla, że konieczne są badania dotyczące samego wytwarzania „ciemnego tlenu” w głębinach morskich, jak i odpowiedź na pytanie, w jaki sposób osady denne, wzbijane podczas wydobywania buł, będą wpływały na zdolność konkrecji do przeprowadzania elektrolizy. Oczywiście nie można pominąć też wpływu usunięcia buł z dna oceanu na zawartość tlenu w wodzie. Dyrektor SAMS, profesor Nicholas Owens, mówi, że to jedno z najbardziej ekscytujących odkryć oceanograficznych w ostatnich czasach. Odkrycie źródła tlenu wytwarzanego bez fotosyntezy każe nam jeszcze raz przemyśleć kwestię pojawienia się złożonych organizmów żywych na Ziemi. Dotychczas uważaliśmy, że tlen pojawił się około 3 miliardów lat temu dzięki cyjanobakteriom i to umożliwiło stopniowy rozwój złożonych form życia. Teraz mamy potencjalne alternatywne źródło tlenu, a to wymaga radykalnego przemyślenia naszych teorii, stwierdza. « powrót do artykułu
  2. Po 150 latach poszukiwań archeolodzy znaleźli jedną z monumentalnych fortyfikacji, które chroniły Jerozolimę. Naukowcy z Izraelskiej Służby Starożytności i Uniwersytetu w Tel Awiwie odkryli wielką fosę głębokości co najmniej 9 metrów i szerokości co najmniej 30 metrów. Fosę znaleziono pod parkingiem Givali w Mieście Dawida. Prawdopodobnie oddzielała ona Wzgórze Świątynne i Ofel od reszty miasta, dodatkowo je chroniąc. Nie wiemy, kiedy zbudowano tę fosę, ale zgromadzone dowody sugerują, że była używana w czasach, gdy Jerozolima była stolicą Królestwa Judy, od czasów króla Jozjasza, sprzed niemal 3000 lat. Przez setki lat fosa oddzielała południową mieszkalną część miasta od centrum władzy na północnym akropolu, gdzie znajdowały się pałac i świątynia, mówią profesor Yuval Gadot i doktor Yiftah Shalev. Budowa tak wielkiej fosy, która wymagała m.in. kucia skał, była dużym przedsięwzięciem logistycznym i pokazem potęgi królów Judy. Od 150 lat archeolodzy szukali śladów północnych fortyfikacji Jerozolimy. Po dokonaniu odkrycia naukowcy przeanalizowali zapiski swoich poprzedników. Sprawdziliśmy raporty z wykopalisk autorstwa brytyjskiej archeolog Kathleen Kenyon, która pracowała w Mieście Dawida w latach 60. XX wieku. Stało się dla nas jasne, że Kenyon zauważyła, iż skały nachylają się na północ w miejscu, w którym powinny się wznosić. Uznała jednak, że to naturalnie ukształtowana dolina. W rzeczywistości jednak odkryła dalszą część fosy, wykutą w skale w kierunku zachodnim. Mamy tutaj głęboką i szeroką fosę o długości co najmniej 70 metrów, ciągnącą się z zachodu na wschód. To odkrycie, które ponownie każe nam przyjrzeć się literaturze biblijnej omawiającej topografię Jerozolimy i takie miejsca jak Ofel czy Millo, wyjaśnia Shalev. Jerozolima powstała na wąskim, stromym wzniesieniu i stopniowo rozszerzała się na okoliczne wzgórza i doliny, które w sposób naturalny dzieliły ją na części. Wiele przedsięwzięć budowlanych podejmowanych przez władców miasta miało na celu zmianę topografii. Na przykład jedną z takich zmian, opisywanych w Biblii (1 Krl 11:27), była budowa Millo (tarasu) odkrytego przez wspomnianą Kathleen Kenyon: "Salomon zbudował Millo, a przez to zamurował wyłom w murze Miasta Dawida, swego ojca". Odkrycie fosy pokazuje, że w czasach Pierwszej Świątyni Jerozolima była podzielona na co najmniej dwie wyraźne części. Podział ten utrzymał się w czasach perskich i hellenistycznych. « powrót do artykułu
  3. Zapalenie przyzębia to dość powszechna dolegliwość. W zaawansowanej postaci wpływa nie tylko na stan jamy ustnej, ale także na cały organizm człowieka. Dlatego umiejętne podejście do leczenia tej przypadłości jest podstawą zapobiegania poważnym konsekwencjom zdrowotnym. Jak powinno wyglądać prawidłowe leczenie? Jakich błędów nie należy popełniać? Sprawdź! Zapalenie przyzębia – co to za choroba? W jamie ustnej znajdują się nie tylko zęby, ale i przyzębie. W jego skład wchodzą dziąsła, błona śluzowa wyrostka zębodołowego, cement korzeniowy i kości zębodołu. Obszary przyzębia mogą zostać zaatakowane przez stany zapalne m.in. [1]: o charakterze ostrym, np. martwiczo-wrzodziejące zapalenie dziąseł oraz martwiczo-wrzodziejące zapalenie przyzębia; związane z chorobami ogólnymi; nabyte w wyniku urazów lub wrodzone; przewlekłe, czyli paradontoza. Zapalenie przyzębia najczęściej rozwija się powoli, stopniowo atakując i zmieniając charakter zmian na dziąsłach [1]. Jakie objawy daje zapalenie przyzębia? Pierwsze objawy stanu zapalnego przyzębia to zaczerwienienie, opuchnięcie oraz krwawienie dziąseł [2]. Może wystąpić nadwrażliwość na dotyk, zwłaszcza podczas szczotkowania zębów, gryzienia twardych pokarmów lub picia i jedzenia gorących i bardzo zimnych posiłków. Następnie może pojawić się zmiana kształtu i koloru tkanki. Dziąsło może być obrzęknięte i zaczerwienione wokół jednego lub wielu zębów. Do tych objawów dochodzi widoczne „odsłanianie się” korzeni zębów. W zaawansowanej postaci zapalenia przyzębia zęby mogą się ruszać, a przy niezauważonej utracie kości nawet wypadać [1]. Jakie są najczęstsze błędy w leczeniu chorób przyzębia? Pewne jest, że zapalenie przyzębia wymaga leczenia. Jego powodzenie w dużej mierze zależy od samego pacjenta oraz odpowiedniego podejścia medycznego. Należy unikać pewnych błędów, które nie sprzyjają sukcesom terapeutycznym [1]. Błąd nr 1 – brak odpowiedniej pielęgnacji jamy ustnej Podstawą leczenia zapalenia przyzębia jest zadbanie o prawidłową higienę jamy ustnej w domu. Błędy, które popełniają pacjenci, obejmują: niedokładne i nieprawidłowe szczotkowanie zębów; zbyt rzadkie i/lub krótkie mycie zębów; zapominanie o czyszczeniu języka i przestrzeni międzyzębowych; korzystanie z nieodpowiednich produktów do higieny jamy ustnej. Błąd nr 2 – nieusunięcie złogów nazębnych Pozostawienie kamienia nazębnego nie sprzyja leczeniu chorób przyzębia. Dlatego koniecznie należy skorzystać z profesjonalnego usunięcia złogów w gabinecie stomatologa. Najlepsze rezultaty przynosi rozbijanie kamienia ultradźwiękami. Błąd nr 3 – pomijanie leczenia periodontologicznego Profesjonalne podejście do leczenia zapalenia przyzębia w zaawansowanej postaci może wymagać wykonania bardziej skomplikowanych zabiegów. Leczenie periodontologiczne czasami obejmuje konieczność wykorzystania mikrochirurgii periodontologicznej, np. plastyki dziąseł lub wydłużenia korony klinicznej zęba. Błąd nr 4 – unikanie farmakoterapii Sama higienizacja nie wystarczy, by zachować zdrowie w jamie ustnej w przypadku zapalenia przyzębia. Niekiedy konieczne jest wdrożenie leczenia farmakologicznego z zastosowaniem antybiotyków i chemioterapeutyków. W przypadku stanów zapalnych przebiegających z bólem pomagają również dostępne w aptekach preparaty do stosowania miejscowego. Mają postać żelu, maści lub aerozolu o działaniu przeciwzapalnym i przeciwbólowym. Błąd nr 5 – brak kontroli nad postępami leczenia Sukces leczenia zapalenia przyzębia zależy w dużej mierze od systematyczności i przestrzegania zaleceń lekarskich. Nie można pomijać fazy leczenia podtrzymującego, rezygnować z systematycznych kontroli periodontologicznych oraz nie chodzić regularnie na zabiegi higienizacyjne. Leczeniu chorób przyzębia nie sprzyja nieodpowiednia dieta (uboga w witaminy i składniki mineralne), palenie tytoniu oraz pomijanie leczenia chorób podstawowych (np. cukrzycy, osteoporozy) [2]. Należy również pamiętać, że im wcześniej zostaną podjęte odpowiednie działania, tym większe są szanse na całkowite wyleczenie dolegliwości. W zaawansowanej fazie choroby może to być niemożliwe [1]. Artykuł powstał przy współpracy z Bausch + Lomb Bibliografia: [1] Tomaszewska I., Zapalenia przyzębia, 2017 (witryna internetowa: https://www.mp.pl/pacjent/stomatologia/choroby-i-leczenie-przyzebia/127744,zapalenia-przyzebia (dostęp: 12.02.2024)). [2] Medycyna Praktyczna, Powstrzymać paradontozę, 2018 (witryna internetowa: https://www.mp.pl/pacjent/stomatologia/aktualnosci/184422,powstrzymac-paradontoze (dostęp: 12.02.2024)). « powrót do artykułu
  4. Urazy kręgosłupa mogą mieć bardzo poważne konsekwencje. Niekiedy prowadzą nawet do niepełnosprawności. Warto wiedzieć, jakie kontuzje zdarzają się najczęściej i jakie są ich przyczyny. Dzięki temu można skutecznie unikać ryzykownych sytuacji i chronić swoje zdrowie. Uszkodzenia kręgosłupa w statystykach Czy złamania lub stłuczenia kręgosłupa występują często? Warto sprawdzić, co na ten temat mówią statystyki zebrane przez pracowników pogotowia ratunkowego. Wynika z nich, że uszkodzenia kręgosłupa nie występują aż tak powszechnie, jak urazy czaszki, kończyn czy tułowia. Niepokojące jest jednak to, że ich liczba powoli, ale systematycznie rośnie. Wiąże się to głównie z rozwojem motoryzacji, przemysłu i rolnictwa, a także ze wzrostem tempa życia. [1] W statystykach światowych najczęstszą przyczyną urazów kręgosłupa są wypadki drogowe – stanowią 33 –75% wszystkich zdarzeń. Na kolejnej pozycji znajdują się upadki z wysokości (15–44%). [1] Liczbę uszkodzeń rdzenia kręgowego szacuje się na 25–35 osób na milion populacji. Połowa obrażeń dotyczy odcinka szyjnego. Takim uszkodzeniom kręgosłupa 5–6-krotnie częściej ulegają mężczyźni niż kobiety. [1] Urazy kręgosłupa najczęściej dotyczą osób w wieku 21–40 lat. W mieście poszkodowane są częściej osoby młode  w wieku do 40. roku życia (65%), a na wsi osoby starsze po 60 roku życia (31%). [1] Urazy kręgosłupa i rdzenia kręgowego w mieście wiążą się najczęściej z wypadkami komunikacyjnymi, a na wsi z pracą w rolnictwie. Urazy u młodszych osób wynikają z wypadków drogowych i sportowych, a u starszej grupy zwykle z upadków z wysokości lub przygnieceń. [1] Warto również zwrócić uwagę na bardzo niebezpieczne urazy rdzenia kręgowego i kręgosłupa, które są efektem skoków do wody. Jedna lekkomyślna decyzja może skutkować niepełnosprawnością do końca życia. Urazy kręgosłupa — jakie są najczęstsze? Najczęściej urazy kręgosłupa występują bez uszkodzenia rdzenia kręgowego lub z jego niewielkim uszkodzeniem. Takie urazy mają charakter wstrząśnienia. Energia jest wówczas przenoszona na struktury kręgosłupa chroniące rdzeń, w wyniku czego dochodzi do [2]: złamań bez przemieszczenia, złamań z przemieszczeniem, zwichnięć. Wyróżnia się urazy pierwotne, które zwykle są odwracalne, ale mogące przejść w stan nieodwracalny, oraz urazy wtórne. Niekiedy może dojść do całkowitego lub częściowego przerwania rdzenia kręgowego bez uszkodzenia kręgosłupa, ale są to rzadkie przypadki. [2] Który odcinek kręgosłupa jest najbardziej podatny na urazy? Najczęściej obrażenia kręgosłupa dotyczą odcinka lędźwiowego, następnie krzyżowego, piersiowego i szyjnego. Urazy kręgosłupa szyjnego są typowe dla wypadków drogowych. Uszkodzenia w pozostałych przypadkach są natomiast charakterystyczne dla upadków z wysokości. [1] Jak zapobiegać urazom kręgosłupa? Podstawą jest unikanie wyżej opisanych zagrożeń, które mogą doprowadzić do poważnego wypadku. Urazy kręgosłupa często powstają w wyniku kolizji samochodowych, dlatego bezwzględnie należy dbać o zapinanie pasów, nawet podczas jazdy na krótkich odcinkach. Kolejną kwestią jest przestrzeganie przepisów BHP — zarówno w rolnictwie, jak i w innych branżach. Upadki z wysokości czy przygniecenia są bowiem kolejnymi najczęstszymi przyczynami urazów kręgosłupa. [1] Nie należy również podejmować żadnych ryzykownych i lekkomyślnych aktywności, takich jak wspomniane skoki do wody. Uraz kręgosłupa z uszkodzeniem rdzenia kręgowego może się w takich przypadkach skończyć trwałym kalectwem. Warto także pamiętać, że uszkodzenia kręgosłupa niekoniecznie muszą być spowodowane poważnymi wypadkami. Niekiedy powstają także podczas wykonywania codziennych czynności. Do kontuzji może dojść np. podczas gwałtownego podnoszenia ciężkiego przedmiotu. O ile urazów wynikających np. z poważnego wypadku samochodowego nie zawsze da się uniknąć, o tyle można wdrożyć odpowiednią profilaktykę przed uszkodzeniami powstającymi podczas wykonywania standardowych czynności. Podstawą jest dbanie o wzmacnianie i odpowiednie rozciąganie mięśni kręgosłupa, które stanowią jego naturalną ochronę. Aktywność fizyczna dobrana do kondycji i stanu zdrowia jest zatem podstawą profilaktyki urazów kręgosłupa. Uraz kręgosłupa — objawy Uszkodzenia kręgosłupa mogą mieć bardzo poważne konsekwencje, dlatego należy wiedzieć, jak reagować, jeśli do nich dojdzie. Najważniejsze jest rozpoznanie objawów złamania kręgosłupa lub innego uszkodzenia. Można podejrzewać poważny uraz, jeśli występują [3]: widoczne na zewnątrz obrażenia kręgów, krwiaki, otarcia, stłuczenia czy przesunięcia kręgów wyczuwalne pod palcami, niedowład (całkowity lub częściowy), zaburzenia czucia, samoistne oddanie kału i moczu, zaburzenia oddychania zaburzenia termoregulacji. Pierwsza pomoc przy urazie kręgosłupa Najważniejszą zasadą jest udzielanie pomocy w pozycji zastanej, czyli ograniczenie ruchów poszkodowanego do minimum. W przypadku podejrzenia urazu kręgosłupa zawsze należy wezwać profesjonalną pomoc (zadzwonić na pogotowie). Następnie [3]: zabezpieczyć odcinek szyjny kręgosłupa: założyć poszkodowanemu kołnierz ortopedyczny lub obłożyć jego głowę kocem albo kurtką; miękkimi tkaninami owinąć okolice lędźwi, kolan i kostek, a wzdłuż tułowia, w celu stabilizacji, ułożyć zrolowane koce, kurtki lub inne przedmioty, które są dostępne w miejscu zdarzenia; zabezpieczyć poszkodowanego termicznie i przez cały czas kontrolować jego funkcje życiowe. Jeśli natomiast uraz kręgosłupa, objawiający się np. bólem pleców, nie jest wynikiem poważnego wypadku, a powstał w wyniku wykonywania codziennych czynności, możesz zastosować środek przeciwbólowy. Najlepiej wybrać preparat, który nakłada się bezpośrednio na bolące miejsce. To może być np. sprej Diky, który charakteryzuje się szybkim działaniem. Postaraj się ograniczyć do minimum ruchy, które nasilają ból i udaj się do lekarza (jeśli Twój stan pozwala na samodzielne poruszanie się). Jeśli jest to niemożliwe, wezwij pomoc. Pamiętaj! Jeśli podejrzewasz uraz kręgosłupa, niezależnie od jego przyczyny zawsze należy skonsultować się z lekarzem. Na zlecenie marki Diky. Bibliografia: Wysocka B. i inni, Epidemiologia urazów kręgosłupa w materiale własnym Pogotowia Ratunkowego we Włocławku: Badania retrospektywne, Pielęgniarstwo Neurologiczne i Neurochirurgiczne 2012, Tom 1, Numer 3, s. 109-118 Radek A., Radek M., Urazy kręgosłupa i nerwów obwodowych, Po dyplomie: https://podyplomie.pl/wiedza/neurologia/097,urazy-kregoslupa-i-nerwow-obwodowych Wicik A., Uraz kręgosłupa — postępowanie w przypadku urazu kręgosłupa: https://kamien.policja.gov.pl/zka/aktualnosci/pierwsza-pomoc/uraz-kregoslupa/7196,Uraz-kregoslupa.html « powrót do artykułu
  5. NASA ma zamiar zrezygnować z misji VIPER, na którą wydała już niemal 450 milionów dolarów. Agencja poinformowała, że wzrost kosztów, opóźnienia w wystrzeleniu misji oraz prawdopodobieństwo dalszego wzrostu kosztów stwarzają ryzyko, że przez misję VIPER zostaną odwołane lub nawet zniweczone inne misje przygotowywane w ramach programu CLPS (Commercial Lunar Payload Services). O swoich zamiarach Agencja poinformowała już Kongres. Łazik VIPER (Volatiles Investigating Polar Exploration Rover) miał wylądować na biegunie południowym Księżyca i poszukać tam wody na potrzeby misji załogowych. W ciągu 100 dni miał przejechać dziesiątki kilometrów i za pomocą spektrometru neutronowego poszukiwać molekuł wody pod powierzchnią. Łazik został wyposażony też w wiertło służące do pobierania próbek, które byłyby badane za pomocą dwóch innych spektrometrów. Miał on zbadać wiecznie zacienione kratery na biegunie i dostarczyć informacji, co się w nich znajduje, zanim w tamtym regionie wylądują astronauci. Zdaniem Phila Metzgera, dyrektora Stephen W. Hawking Center for Microgravity Research and Education na University of Central Florida, odwołanie tej misji to duży błąd. Jego zdaniem misja jest „rewolucyjna”. VIPER to ważny krok w kierunku poznania odpowiedzi na pytanie, czy jesteśmy sami w kosmosie. Inne misje jej nie zastąpią – stwierdził uczony. Metzger wspomina o innych misjach, gdyż NASA planuje rozebrać łazik i wykorzystać jego poszczególne elementy w innymi misjach księżycowych. Agencja oświadczyła, że posłucha sugestii amerykańskich firm i swoich międzynarodowych partnerów odnośnie wykorzystania podzespołów VIPER, pod warunkiem, że nie będzie się to wiązało z dodatkowymi kosztami. Będziemy kontynuowali program badań Księżyca w ramach programu CLPS. Mamy cały szereg zaplanowanych misji, w ramach których w ciągu najbliższych pięciu lat będziemy poszukiwali na Księżycu lodu i innych zasobów. W maksymalny sposób wykorzystamy technologię i zasoby, które włożyliśmy w misję VIPER, a jednocześnie zaoszczędzimy pieniądze na potrzeby programu, stwierdziła Nicola Fox ze Science Mission Directorate NASA. Metzgera to jednak nie przekonuje i uważa, że Kongres powinien znaleźć dodatkowe pieniądze na misję. Misja VIPER miała zostać wystrzelona pod koniec 2023 roku, ale w 2022 roku NASA poinformowała o przesunięciu startu o rok, co miało dać więcej czasu na przetestowanie lądownika Griffin firmy Astrobotic. W międzyczasie pojawiły się kolejne opóźnienia w łańcuchu dostaw podzespołów i start misji przesunięto na wrzesień 2025 roku. Teraz Agencja uznała, że powinna odwołać VIPER i zaoszczędzić w ten sposób co najmniej 85 milionów USD, które musiałaby wydać na kolejne testy i działania łazika na Księżycu. Startu samego Griffina jednak nie odwołano. Lądownik zostanie wystrzelony, a jego możliwości przetestowane z dostarczonym przez NASA symulatorem masy. Agencja zdecydowała, że nie będzie umieszczała innych instrumentów naukowych w miejsce łazika, gdyż wymagałoby to renegocjacji ceny z Astrobotics. Jeśli jednak firma chce zabrać na pokład komercyjny ładunek innych przedsiębiorstw, NASA zmniejszy rozmiary swojego symulatora masy. Misje NASA bardzo często kosztują więcej, niż pierwotnie zakładano i są opóźnione. Agencja czasami opóźnia więc jedne misje, by mieć pieniądze na dokończenie innych. Jej menedżerowie nie spodziewają się jednak, by w najbliższych latach Kongres zwiększył finansowanie, dlatego zdecydowali się na odwołanie VIPER. Ostateczna decyzja zależy jednak od Kongresu. Ten może nakazać NASA kontynowanie misji VIPER, jeśli jednak nie przyzna na nią dodatkowych pieniędzy, Agencja będzie zmuszona obciąć budżet innych misji. « powrót do artykułu
  6. Marta zawsze dbała o swoją skórę, stosując różne kremy, maseczki i inne produkty pielęgnacyjne. Mimo to, nie mogła osiągnąć wymarzonego efektu. Jej skóra była matowa, pozbawiona blasku i często pojawiały się na niej niedoskonałości. Kiedy dowiedziała się o mezoterapii igłowej, postanowiła spróbować tego nowoczesnego zabiegu. „Mezoterapia to prawdziwe zbawienie dla mojej skóry,” twierdzi Marta. „Po kilku zabiegach skóra stała się gładka, nawilżona i pełna blasku. To niesamowite, jak dużą różnicę może zrobić odpowiednia pielęgnacja.” Mezoterapia igłowa polega na wprowadzeniu w głąb skóry substancji odżywczych, witamin i minerałów za pomocą mikroiniekcji. Zabieg jest niemal bezbolesny, a rezultaty są widoczne już po kilku dniach. Marta zauważyła, że jej skóra nie tylko wygląda lepiej, ale również jest bardziej odporna na szkodliwe działanie czynników zewnętrznych, takich jak zanieczyszczenia i promieniowanie UV. „Moja skóra jest teraz bardziej jędrna i elastyczna. Czuję się pewniej bez makijażu, co jest dla mnie ogromnym komfortem,” dodaje Marta. Mezoterapia (soluderma.pl/72-kolagen-do-mezoterapii) igłowa stała się jednym z najpopularniejszych zabiegów regeneracyjnych w medycynie estetycznej, dzięki swoim skutecznym i trwałym efektom. Co więcej, mezoterapia igłowa pomaga również w walce z innymi problemami skórnymi, takimi jak trądzik, blizny i przebarwienia. Marta, zachęcona pozytywnymi rezultatami, postanowiła regularnie poddawać się zabiegom mezoterapii, aby utrzymać swoją skórę w jak najlepszej kondycji. „To naprawdę niesamowite, jak odpowiednia pielęgnacja i nowoczesne technologie mogą poprawić wygląd i samopoczucie. Teraz wiem, że inwestycja w siebie to najlepsza decyzja, jaką mogłam podjąć,” podsumowuje Marta. Z czasem Marta zaczęła eksperymentować z innymi zabiegami, takimi jak terapia osoczem bogatopłytkowym, która dodatkowo stymuluje odnowę komórkową i wspomaga naturalne procesy regeneracyjne skóry. „Zdecydowanie czuję się lepiej i widzę, że moja skóra stała się bardziej odporna na wszelkie wyzwania, jakie stawia przed nią codzienność. Mezoterapia igłowa i inne zabiegi to dla mnie nie tylko inwestycja w wygląd, ale także w zdrowie i dobre samopoczucie,” mówi Marta z uśmiechem. Teraz nie tylko jej cera jest w znakomitej kondycji, ale także jej pewność siebie i radość z życia znacząco wzrosły. Marta stała się prawdziwą ambasadorką zdrowego podejścia do pielęgnacji skóry, dzieląc się swoimi doświadczeniami i zachęcając innych do odkrywania możliwości, jakie oferuje medycyna estetyczna. Dzięki regularnym zabiegom i odpowiedniej pielęgnacji, Marta odzyskała swoją młodzieńczą cerę i zyskała nową energię do działania. Jej historia jest dowodem na to, że każda z nas zasługuje na to, by czuć się pięknie i zdrowo w swojej skórze. Mezoterapia igłowa i inne nowoczesne technologie medycyny estetycznej naprawdę mogą zmienić życie, przywracając nie tylko wygląd, ale i wiarę w siebie. « powrót do artykułu
  7. Price action to rodzaj analizy, która skupia się na cenie. Tego typu trading zakłada, że wszystko, co musimy wiedzieć o rynku, jest zawarte w aktualnej cenie. Nie potrzeba tu złożonych reguł matematycznych czy skomplikowanych wskaźników. Sprawdź, czy price action to rozwiązanie dla Ciebie! Co to jest price action? Technika price action to analiza reakcji i zachowania ceny. Co istotne, price action skupia się na samej cenie, pomijając bardziej złożone reguły matematyczne czy poboczne wskaźniki. W związku z tym PA ma naprawdę spore grono zwolenników. Jedną z podstaw techniki price action jest analiza przejrzystych i bardzo czytelnych wykresów świecowych cen. Kluczowa jest tutaj także analiza poziomów wsparć i oporu, gdzie wyznacza się strefy lub całe obszary, w których następuje konkretne prawdopodobieństwo reakcji cenowej. Na podstawie tych ruchów analizuje się i przewiduje, co większość rynku może zrobić w danej sytuacji. W PA najważniejsza jest cena. Wielu traderów nie śledzi więc zdarzeń fundamentalnych czy innych czynników rynkowych, zakładając że cena zawiera już i tak wszystkie zmienne. Głównym zarzutem wobec price action jest subiektywność. W podobnej sytuacji dwóch inwestorów może mieć bowiem zupełnie inne podejście. Do tego dochodzi duża chaotyczność cen i spora trudność w ich przewidywaniu. Strategia price action Chcesz skorzystać z techniki price action? Ważną umiejętnością, którą musisz opanować, będzie prawidłowe czytanie wykresów. Istotnym elementem jest relacja poszczególnych cen, np. otwarcia, zamknięcia, minimalnej czy maksymalnej. Dobrze jest skupiać się tu na jednej lub kilku świecach. Strategia wymaga więc biegłego posługiwania się wykresami. W perspektywie czasu warto jest nauczyć się zauważać stałe schematy. W price action będą one bowiem powtarzać się z pewną regularnością. Co ważne, samo śledzenie relacji poszczególnych cen to dopiero punkt wyjścia do dalszych analiz. Trader musi bowiem uwzględniać znacznie szerszy kontekst rynkowy. Ruchy cen pokazane na wykresach w wybranym przedziale czasowym – to istota PA. Tutaj nawet niewielkie zmiany mogą przyczynić się do dużych ruchów na cenach. Price action to strategia, która opiera się na pewnej cykliczności zachowań ludzkich. Decyzje w poszczególnych momentach rynkowych bywają więc podobne do siebie, co sprawia, że PA zyskuje wielu zwolenników. Plusy i minusy skupienia na cenie Jak każde podejście rynkowe, tak i PA ma swoje zalety i wady. Głównym plusem strategii jest operowanie jasnymi i dość łatwymi w interpretacji wykresami. Wyszukiwanie informacji jest tutaj zdecydowanie ułatwione. Wykresy pozbawione są zbędnych i wprowadzających chaos informacji dodatkowych. Dużą zaletą jest także swoista racjonalność podejścia PA. To plus dla inwestorów, którzy cenią sobie logikę. Price action pozwala także niejako przewidywać zachowania dużych graczy na rynku, np. banków. Pewne zależności są szczególnie widoczne na dłuższych interwałach czasowych. Taka analiza może pokazać, jak rynek zareaguje w przyszłości w podobnej sytuacji. Tutaj wyróżniają się bowiem pewne stałe wzory, które pojawiają się cyklicznie. Problem price action leży głównie w subiektywności tej metody. Tam, gdzie w PA jeden inwestor widzi szanse, inny będzie upatrywał ryzyka i odwrotnie. Metoda uznawana jest więc za spekulacyjną, co może zdecydowanie nie odpowiadać traderom szukającym mniej ryzykownych podejść rynkowych. Kłopotliwa okazuje się także sytuacja, gdy na rynku pojawia się szum i sporo sygnałów, które są mylne. PA nie sprawdza się wtedy zbyt dobrze. Warto zatem zawsze samodzielnie dobierać strategię inwestycyjną, analizować rynek i nie dać się zmanipulować osobom twierdzącym że dysponują „maszynką do zarabiania pieniędzy”. Inwestowanie w instrumenty finansowe zawsze wiąże się z ryzykiem – dlatego nie należy inwestować środków na których utratę nie możemy sobie pozwolić. Szukasz strategii, która pozwoli Ci lepiej odnaleźć się na rynku? Dołącz do AvaTrade School! To darmowa platforma, gdzie możesz pogłębiać swoją wiedzę na temat tradingu oraz korzystać ze wsparcia doświadczonych praktyków. Powyższa informacja stanowi publikację handlową i jest upowszechniana w celu promocji usług świadczonych przez Ava Trade EU Ltd. « powrót do artykułu
  8. Przed dwoma dniami w Nowym Jorku sprzedano najdroższą skamieniałość w historii. „Apex”, najbardziej kompletny szkielet stegozaura, jaki kiedykolwiek pojawił się na aukcji, otwierał Sotheby's Natural History Auction. O zakup wyjątkowego zabytku starało się 7 kupujących. Sprzedaż zakończyła się po 15 minutach, a nabywca zapłacił za szkielet 11-krotnie więcej, niż dolne szacunki sprzed aukcji. Anonimowy właściciel szkieletu oświadczył, że wypożyczy go amerykańskiej instytucji naukowej. Apex urodził się w Ameryce i w Ameryce pozostanie, stwierdził. Szkielet wysokości 3,3 m i długości 8,2 m należał do zwierzęcia, które – jak świadczą ślady zwyrodnień – dożyło sędziwego wieku. Nie widać na nim ani śladów urazów, ani pośmiertnego działania padlinożerców, ma za to liczne interesujące patologie. Został odkryty w 2022 roku przez paleontologa Jasona Coopera, który komercyjnie zajmuje się poszukiwaniem skamieniałości. Cooper znalazł dinozaura na własnej posiadłości. O odkryciu natychmiast poinformował dom aukcyjny Sotheby's, którego specjalistka, Cassandra Hatton, dokumentowała cały proces wydobywania, czyszczenia, konserwacji i montowania szkieletu. W ten sposób dom aukcyjny zyskał pewność, że zostały dochowane najwyższe standardy przejrzystości i zachowano wszelkie informacje oraz dodatkowe elementy – jak skamieniałe odciski skóry – które sprzedano wraz ze szkieletem. Przed aukcją szacowano, że „Apex” zostanie sprzedany za 4 do 6 milionów dolarów. Tymczasem kupujący wywindowali cenę aż do 44,6 miliona dolarów. Tym samym mamy do czynienia z najwyższą ceną osiągniętą za skamieniałość. „Apex” okazał się droższy od „Sue”, pierwszego dinozaura sprzedanego na aukcji, za którego nabywca zapłacił w 1997 roku 8,4 miliona dolarów, oraz od dotychczasowego rekordzisty – „Stana” – który w 2020 roku osiągnął cenę 31,8 miliona USD. „Apex” pochodzi z hrabstwa Moffat w stanie Kolorado z okolic miasta Dinosaur, nazwanego tak z powodu bliskości Dinosaur National Monument. To najbogatszy w szczątki dinozaurów region w USA. „Apex” stanowi bardzo ważne odkrycie, gdyż zachował się niemal w całości. Cooper wydobył 254 kości. Specjaliści sądzą, że gatunek ten posiadał około 319 kości. To, co dotrwało do naszych czasów, zachowało się w świetnym stanie. Widoczne są niewielkie szczegóły, kości w dużej mierze zachowały swój kształt i szczegóły powierzchni. « powrót do artykułu
  9. Słońce znajduje się maksimum swojego obecnego cyklu, a astronomowie odkryli już pierwsze sygnały świadczące o rozpoczynaniu się kolejnego cyklu. Obecnie nasza gwiazda jest maksymalnie aktywna i stan taki potrwa do połowy przyszłego roku. Cykle trwają średnio 11 lat, gdy Słońce zmienia aktywność z minimalnej po maksymalną. W maksimum do powierzchni Ziemi dociera o ok. 1 W/m2 energii więcej, niż w minimum. Obecnie znajdujemy się w 25. cyklu. Liczymy je bowiem od roku 1755, kiedy to rozpoczęto regularnie zapisywać liczbę plam na Słońcu. Naukowcy z University of Birmingham poinformowali podczas Narodowego Spotkania Astronomicznego organizowanego przez Królewskie Towarzystwo Astronomiczne, że zarejestrowali pierwsze fale dźwiękowe pochodzące z wnętrza Słońca, które świadczą o rozpoczynaniu się kolejnego cyklu. Oficjalnie cykl ten powinien rozpocząć się około 2030 roku. Astronomowie wykorzystują fale dźwiękowe z wnętrza Słońca do badań jego ruchu obrotowego. Przyglądają się w ten sposób zmianom prędkości w ruchu obrotowym niektórych fragmentów gwiazdy. Zwykle przed rozpoczęciem kolejnego cyklu pojawiają się obszary, gdzie ruch taki przyspiesza. Prawdopodobnie widzimy tutaj pierwsze oznaki cyklu 26., który rozpocznie się około 2030 roku, mówi główna autorka badań, doktor Rachel Howe. Zmiany, o których mowa, są od 1995 roku badane przez Global Oscillation Network Group, w skład której wchodzą teleskopy w Australii, Indiach, Chile, W Kalifornii, na Hawajach i Wyspach Kanaryjskich. Całość wspomaga satelita Solar Dynamics Observatory. Dotychczas zebrano dane z cykli 23., 24. i 25., co pozwala na porównywanie zjawisk towarzyszących tym cyklom. Doktor Howe od 25 lat specjalizuje się w badaniu zmian ruchu obrotowego Słońca. Teraz jej zespół zaobserwował szybciej przemieszczającą się materię, która podąża w kierunku słonecznego równika. Takie samo zajwisko obserwowano gdy rozpoczynały się cykle 24. i 25. « powrót do artykułu
  10. Kurczenie się powierzchni lodu morskiego powoduje, że powierzchnia Ziemi odbija coraz mniej światła słonecznego. Coraz więcej jest więc pochłaniane i wypromieniowywane, co przyspiesza globalna ocieplenie. Naukowcy z University of Michigan stwierdzili właśnie, że tempo, w jakim obszary pokryte lodem morskim tracą zdolność do odbijania promieniowania jest większe niż tempo spadku zasięgu lodu. A to powoduje, że wpływ zmian w lodzie morskim na ogrzewanie się planety jest bliżej maksimum przewidywanego przez modele klimatyczne. Uczeni z Michigan wykorzystali – pochodzące z lat 1980–2023 – pomiary satelitarne pokryw chmur oraz promieniowania słonecznego odbijanego przez lód morski. Gdy chcemy się dowiedzieć, w jaki sposób topnienie się lodu morskiego może wpływać na klimat, musimy symulować pełny wiek, by uzyskać wiarygodne odpowiedzi, mówi profesor Mark Flanner z UMich. Obecnie dotarliśmy do punktu, w którym mamy wystarczająco dużo danych z pomiarów satelitarnych, by nie opierać się wyłącznie na symulacjach, ale korzystać z danych pomiarowych, dodaje uczony. Od 1980 roku w Arktyce obserwujemy olbrzymie stałe spadki średniej powierzchni lodu morskiego i jego chłodzącego wpływu na klimat. Inaczej ma się sprawa z Biegunem Południowym. Tam roczne wahania są tak duże, że trudno obserwować jest trend. Jednak jeszcze do niedawna wydawało się, że powierzchnia tamtejszego lodu pływającego jest stabilna, z niewielkim trendem wzrostowym, co przekładało się na zwiększenie ilości światła słonecznego, jakie lód ten odbija. Jednak w 2016 roku doszło do gwałtownej utraty lodu. Wydaje się obecnie, że mamy do czynienia z trendem spadkowym i przez ostatnich 8 lat chłodzący wpływ Antarktyki był najsłabszy od początku lat 80. XX wieku. Jednak głównym problemem, który zauważyli autorzy najnowszych badań jest fakt, że lód morski ma coraz mniejszą zdolność do odbijania promieni słonecznych. Coraz częstsze opady deszczu powodują, że jest on cieńszy, bardziej mokry, na jego powierzchni stoi woda, a to zmniejsza jego zdolność do odbijania światła. Zjawisko takie jest widoczne przede wszystkim w Arktyce w najbardziej słonecznych częściach roku, gdzie od roku 1980 lód stracił 21–27% zdolności odbijania światła. Naukowcy obawiają się, że może ono odgrywać też dużą rolę w Antarktyce, gdzie od 2016 roku obserwuje się spadek ilości odbijanego światła. W sumie w skali globu ilość światła odbijanego przez lód pływający zmniejszyła się o 13–15% w porównaniu z pierwszą połową lat 80. W wyniku tego procesu w latach 2016–2023 globalny wpływ chłodzący lodu pływającego był średnio o 14% (0,25 W/m2) słabszy niż w latach 1980–1988. Przez to, że sam lód odbija obecnie mniej promieni, pojawia się sprzężenie zwrotne, które dodatkowo wzmacnia niekorzystne zmiany powodowane już przez samo zmniejszenie zasięgu lodu pływającego. W przypadku samej Antarktyki łączny wpływ utraty lodu i utraty jego zdolności do odbijania promieni słonecznych jest o 40% wyższy, niż sam wpływ utraty lodu. « powrót do artykułu
  11. Na plaży w pobliżu Taiari Mouth w nowozelandzkim regionie Otago ocean wymył na brzeg ciało najrzadszego znanego ludziom wieloryba. Mesoplodon traversii jest tak rzadko widywany przez ludzi, że praktycznie nic o nim nie wiemy. Najnowsze znalezisko daje niepowtarzalną okazję do lepszego poznania tych zwierząt, gdyż zwłoki 5-metrowego samca są w dobrym stanie. Tak dobrym, że po raz pierwszy można będzie przeprowadzić sekcję zwłok zwierzęcia. W 1872 r. szkocki geolog James Hector opisał niezwykłą żuchwę, znalezioną rok wcześniej na wyspie Pitt. W 1950 r. na wyspie White natrafiono na pierwszą częściowo zachowaną czaszkę. Na drugą trzeba było poczekać aż do 1986 r. Tym razem nie pochodziła ona z terytorium Nowej Zelandii, lecz Chile, a konkretnie z wyspy Robinson Crusoe. W 2002 r. sekwencjonowanie potwierdziło, że wszystkie szczątki uznawane za fragmenty kośćca M. traversii rzeczywiście należą do jednego gatunku. W 2010 roku spacerowicz zauważył na nowozelandzkiej plaży Opape dwa wale, 5-metrową samice i 3,5-metrowego samca. Nim udało się cokolwiek zrobić, zwierzęta zmarły. Pobrano próbki, a ciała zakopano w piasku. Mesoplodon traversii to jedne z najsłabiej poznanych ssaków. Od XIX wieku na całym świecie udokumentowano tylko 6 osobników. Wszystkie, z wyjątkiem jednego, pochodziły z Nowej Zelandii, przypomina Gabe Davies z Ministerstwa Ochrony Przyrody. To właśnie eksperci z tego urzędu zajmują się niedawno znalezionym ciałem. Tym razem postanowiono przeprowadzić dokładniejsze badania. Próbki ciała zwierzęcia zostały już wysłane do Uniwersytetu w Auckland, gdzie zajmą się nimi eksperci z New Zealand Cetacean Tissue Archive. Sekwencjonowanie DNA i jego badania mogą potrwać kilka miesięcy. Zwłoki są obecnie przechowywane w chłodnym miejscu, gdzie czekają na podjęcie decyzji, co do dalszych kroków. W 2012 roku informowaliśmy, że autorzy artykułu w Current Biology, którzy opisywali ówczesny stan wiedzy na temat M. traversii, stwierdzili, że zwierzę jest tak rzadko widywane, gdyż albo gatunek składa się z małej populacji, albo żyje na dużych głębokościach z dala od wybrzeży. « powrót do artykułu
  12. Yair Whiteson, 13-latek z Hajfy, wybrał się z ojcem na przechadzkę po okolicy. Gdy przechodzili w pobliżu Mishmar HaCarmel na górze Karmel, uwagę chłopca zwrócił niezwykły obiekt leżący na ziemi. Interesuję się skałami i skamieniałościami. Uwielbiam je zbierać. Zauważyłem niewielki zielony przedmiot i go podniosłem. Początkowo myślałem, że to zardzewiała śruba i stwierdziłem, że rozgrzeję ją nad ogniem. Na szczęście po chwili zauważyłem, że to pierścień. W domu zobaczyłem, że jest na nim jakaś postać. Pomyślałem, że to wojownik, wspomina nastolatek. Rodzina skontaktowała się z doktorem Nirem Distelfeldem, inspektorem w Wydziale Zapobiegania Kradzieżom Izraelskiej Służby Starożytności. Ten przekazał pierścień specjalistom z Wydziału Skarbów Narodowych. Ci zaś poprosili o pomoc profesor Shua Amorai-Stark, specjalistkę od starożytnych pierścieni i amuletów. Uczeni stwierdzili, że Yair znalazł piękny pierścień, który zachował się w całości. Widać na nim nagą postać, która w jednej ręce trzyma tarczę, w drugiej włócznię. To najprawdopodobniej Minerwa (Atena). To bogini wojny, strategii wojskowej i mądrości. Była bardzo popularna na ziemiach Izraela w okresie rzymskim, mówią eksperci z Izraelskiej Służby Starożytności. Niewielki pierścień należał prawdopodobnie do dziewczyny lub kobiety, która żyła w II lub III wieku naszej ery. Znaleziony został w pobliżu miejsca, w którym znajdują się pozostałości rzymskiej farmy oraz starożytny kamieniołom. Na krańcach kamieniołomu znajdują się dwa pochówki. Pierścień mógł należeć do kobiety mieszkającej na farmie, pracującej w kamieniołomie lub być częścią wyposażenia któregoś z grobów. « powrót do artykułu
  13. We Włoskim Instytucie Technologii (Istituto Italiano di Tecnologia – IIT) w Genui powstał wyjątkowy prototyp protezy ludzkiej stopy. SoftFoot Pro powstała z myślą o poruszaniu się po nierównym terenie, który jest wymagający zarówno dla osób z protezami, jak i dla robotów. Stopa może bowiem służyć ludziom, którzy stracili kończyny, jak i humanoidalnym robotom. Niektóre z wykorzystanych tutaj technologii są już chronione dwoma międzynarodowymi patentami, a trzeci patent jest właśnie rozpatrywany przez EPO (European Patent Office). Prototyp pokazano publicznie przed tygodniem podczas specjalnej prezentacji zorganizowanej przez włoskie IIT oraz Ministerstwo Zdrowia. Wcześniej z osiągnięciem włoskich inżynierów mogli zapoznać się uczestnicy IEEE International Conference on Robotics and Automation, która odbyła się w Jokohamie w Japonii. Tym, co obecnie łączy protetykę i roboty humanoidalne są płaskie stopy, które opracowano z myślą o maksymalnej stabilności, ale które są niezdolne do adaptowania się do zmian kształtu terenu, jego nachylenia oraz takich czynności jak klękanie, mówił wówczas Manuel G. Catalano, który wygłosił wykład. Naukowcy z IIT we współpracy z Centro E. Piaggio na Uniwersytecie w Pizie, chcieli skonstruować sztuczną stopę, która będzie podobna do ludzkiej zarówno pod względem anatomii, jak i możliwości. SoftFoot Pro waży około 450 gramów i jest w stanie wesprzeć masę do 100 kilogramów. Zbudowana została z tytanu i plastiku, a całość połączono w ten sposób, by oddać funkcje spełniane przez rozcięgno podeszwowe, stęp, śródstopie i kości palców. SoftFoot Pro zmienia kształt dostosowując się do kształtu terenu, ułatwiając chodzenie, w tym wchodzenie po schodach. Sztuczna stopa jest wodoodporna, zatem można ją używać na terenach podmokłych czy plażach. Obecnie we współpracy z Uniwersytetami Medycznymi w Hannowerze i Wiedniu prowadzone są testy różnych prototypów SoftFoot Pro.   « powrót do artykułu
  14. W 2016 roku Biblioteka Narodowa kupiła prawdziwy unikat, egzemplarz 1. wydania „O krasnoludkach i o sierotce Marysi” Marii Konopnickiej z 1896 roku. Wciąż jednak nie było wiadomo, skąd pochodzi 12 kolorowych litografii znajdujących się w książce. Wielu ekspertów uważało, że powstały one w Niemczech. Źródło ilustracji zostało odkryte przez Zespół ds. Badań nad Literaturą i Kulturą Dziecięcą, który pracuje na Wydziale Filologii Polskiej i Klasycznej UAM pod kierunkiem profesor Bogumiły Kaniewskiej. Pierwsze hipotezy o pochodzeniu ilustracji pojawiły się w czerwcu 2022 roku. Kilka tygodni później dr Anna Czernow i dr Aleksandra Wieczorkiewicz pojechały do Staatsbibliothek w Berlinie i przeanalizowały litografie z pisma Kinder-Gartenlaube. Farbig illustrierte Zeitschrift zur Unterhaltung und Belehrung der Jugend, które w latach 1886–1891 było wydawane w Norymberdze. Analiza potwierdziła przypuszczenia. Michał Arct, wydawca Konopnickiej, zaczerpnął ilustracje właśnie z tego pisma. W tej chwili nie wiemy, czy Arct miał zgodę niemieckich wydawców na skorzystanie z wydrukowanych przez nich dzieł. W tym czasie powszechną praktyką było korzystanie – szczególnie w masowej produkcji książek i czasopism – z materiałów graficznych bez pytania o zdanie ich autora. Nie obowiązywało wówczas prawo autorskie w znanym nam obecnie kształcie. Badaczki przypuszczają, że Arct postarał się o zgodę niemieckiego wydawcy. Uczone spróbują to sprawdzić. Archiwum Arcta zostało w większości zniszczone w czasie wojny, a do archiwum w Norymberdze nie udało im się jeszcze dotrzeć. Niezależne od uczonych z UAM badania przeprowadził Michał Kazimierz Gajzler. Już w 2023 roku – na podstawie kwerendy w internecie – doszedł do wniosku, ze źródłem ilustracji do polskiej książki są grafiki z „Kinder-Gartenlaube”. Ostateczną pewność uzyskał, gdy w styczniu w styczniu 2024 roku do sieci trafiła zdigitalizowana wersja niemieckiego czasopisma. Można się było wówczas przekonać, że ilustracja z okładki „Sierotki Marysi” z 1896 roku jest identyczna z ilustracją okładki nr. 8 „Kinder-Gartenlaube” z tomu nr 3 z 1887 roku. Przejrzałem "Kinder-Gartenlaube" w Google Books i znalazłem wszystkie 12 ilustracji, jakie są w książce o Sierotce Marysi. Mogą różnić się szczegółami, czytamy na blogu Gajzlera. Nie byłby to pierwszy w dziejach nauki przypadek (niemal) równoczesnego dokonania ważnego odkrycia przez różnych, niezależnych od siebie badaczy!, czytamy w komunikacie UAM. Pierwsze wydanie powieści Konopnickiej można obecnie obejrzeć w Bibliotece Narodowej POLONA. « powrót do artykułu
  15. Pod koniec czerwca do Narodowego Muzeum Irlandii (NMI) przyszła niezwykła przesyłka. Listonosz przyniósł kartonowe pudełko, wewnątrz którego, w precyzyjnie wyciętej piance, znajdowały się... dwie siekierki z epoki brązu. Do przesyłki dołączony był list, w którym anonimowy nadawca informował, że zabytki zostały znalezione w hrabstwie Westmeath za pomocą wykrywacza metali i wyraził nadzieję, że zostaną one odpowiednio zakonserwowane. Specjaliści z NMI stwierdzili, że siekierki pochodzą z wczesnej epoki brązu z lat 2000–2150 p.n.e. Stanowią ważne odkrycie archeologiczne. I właśnie z tego względu kontekst znaleziska, możliwość dokładnego zbadania miejsca, w którym zostały odkryte, jest niezwykle ważny. Dlatego też Muzeum apeluje do znalazcy o kontakt i podanie dokładnego miejsca odkrycia. Zapewnia przy tym, że wszelkie informacje będą poufne, więc znalazca nie ma się czego obawiać. Dla archeologów możliwość chociażby zbadania rozmieszczenia poszczególnych przedmiotów jest niezwykle ważne dla zrozumienia dawnych kultur. W epoce brązu ludzie celowo umieszczali różne przedmioty w swoim otoczeniu, a kontekst umieszczenia przedmiotu miał konkretne znaczenie. Można było w ten sposób np. ubiegać się o interwencję bogów. Dlatego dokładne dane pozwoliłyby lepiej zrozumieć prehistorię Westermeath. Jesteśmy niezwykle podekscytowani tym znaleziskiem, ale jego pełną wartość będziemy mogli zrozumieć tylko wtedy, gdy poznamy dokładną lokalizację miejsca odkrycia, mówi Matt Seaver, kurator z NMI. « powrót do artykułu
  16. Teleskop Webba zdobył bezpośrednie dowody na istnienie różnic w strefie przejściowej między dwiema półkulami planet, które okrążają swoją gwiazdę w obrocie synchronicznym. Dotychczas o występowaniu tych różnic wiedzieliśmy z modeli obliczeniowych. Teraz zostały one potwierdzone za pomocą urządzenia NIRSpec (Near-Infrared Spectograph) znajdującego się na pokładzie Webba. Teleskop badał olbrzymią planetę WASP-39b. Jej średnica jest o 30% większa od średnicy Jowisza, a jej masa podobna jest to masy Saturna. Planeta znajduje się w odległości około 700 lat świetlnych od Ziemi i obiega gwiazdę w obrocie synchronicznym, co oznacza, że jedna jej strona jest zawsze zwrócona w stronę gwiazdy. Na tej półkuli panuje wieczny dzień, na przeciwnej zaś – wieczna noc. W przeszłości sądzono, że strefa przejściowa pomiędzy półkulami jest homogeniczna, jednak przekonanie to było podważane przez modele obliczeniowe, które wskazywały, że ta część, która znajduje się po stronie przejścia z półkuli dziennej do nocnej różni się od części, gdzie przechodzimy ze strony nocnej na dzienną. Dzięki NIRSpec naukowcy zdobyli dowody, że różnica temperatur pomiędzy obiema częściami strefy wynosi niemal 200 stopni Celsjusza. Okazało się również, że mają one inną pokrywę chmur. Od strony dziennej do nocnej jest ich więcej niż od nocnej do dziennej. Naukowcy dowiedzieli się tego analizując spektrum transmisji w zakresie 2–5 mikrometrów. W technice tej porównuje się światło gwiazdy przefiltrowane przez atmosferę planety znajdującej się pomiędzy gwiazdą a obserwatorem, z niefiltrowanym światłem gwiazdy, gdy planeta jest za nią. Dzięki temu możliwe jest zdobycie informacji o temperaturze, składzie i innych właściwościach atmosfery planety. WASP-39b stała się czymś w rodzaju wzorca do badania atmosfer egzoplanet za pomocą Webba. Ma ona bardzo rozległą, nabrzmiałą atmosferę, więc dociera do nas silny sygnał, mówi główny autor badań, Néstor Espinoza ze Space Telescope Science Institute. Z wcześniejszych badań wiemy, że w atmosferze planety znajdują się dwutlenek węgla, dwutlenek siarki, para wodna i sód. Teraz udało się określić pokrywę chmur i temperatury. W tej części strefy przejściowej, która rozciąga się od strony dziennej ku nocnej, temperatura atmosfery wynosi 800 stopni Celsjusza. W części od strony nocnej ku dziennej jest to 600 stopni Celsjusza. Espinoza mówi, że zauważenie tak niewielkiej różnicy temperatury było możliwe wyłącznie dzięki niezwykłej czułości Webba w zakresie podczerwieni oraz ekstremalnie stabilnym czujnikom teleskopu. Każdy niewielki ruch instrumentu czy teleskopu podczas zbierania danych poważne zaburzyłby nasze możliwości wykrycia różnic. Całość musi być niesamowicie precyzyjna. I Webb właśnie taki jest, cieszy się uczony. Modele obliczeniowe pozwalają też zbadać, skąd bierze się ta różnica temperatur w strefie przejściowej. Na takich planetach jak WASP-39 b, gdzie światło gwiazdy pada tylko na jedną stronę, istnieją duże różnice temperatur, a więc i ciśnienia. Gazy przemieszczają się z olbrzymią prędkością pomiędzy półkulami. Modele klimatyczne, podobne do tych używanych do prognozowania pogody na Ziemi, wskazują, że na WASP-39 b potężne wiatry przemieszczają się z prędkością tysięcy kilometrów na godzinę ze strony nocnej, przez strefę przejściową noc-dzień, na stronę dzienną i stamtąd przez strefę przejściową dzień-noc na stronę nocną. I właśnie stąd mamy tę 200-stopniową różnicę w obu częściach strefy przejściowej. Do jednej z tych części wpadają bowiem chłodne wiatry z półkuli nocnej, do drugiej zaś – ciepłe wiatry z półkuli dziennej. « powrót do artykułu
  17. Na jakość naszego snu wpływa wiele czynników tj. temperatura otoczenia, materiał pościeli czy dobrze dopasowany materac. Co wziąć pod uwagę przy jego zakupie i o czym pamiętać? Sprawdź!   Zastanawiasz się, jaki materac do spania wybrać? Na rynku dostępne są modele różniące się nie tylko ceną, ale także parametrami technicznymi. Pojedynczy materac 80x200 cm czy podwójny? Piankowy, sprężynowy, a może lateksowy? Miękki czy twardy? W tym artykule znajdziesz przydatne informacje i porady, które ułatwią Ci to zadanie! Pojedynczy materac czy podwójny? To pytanie warto sobie zadać w pierwszej kolejności. Pojedynczy materac 80x200 cm będzie dobrym wyborem do sypialni singla lub pokoju dziecięcego – ze względu na kompaktowe wymiary doskonale sprawdzi się w pomieszczeniach o niewielkim metrażu. Model ten przeznaczony jest do łóżek jednoosobowych i piętrowych. Podwójny materac 160x200 cm oferuje więcej przestrzeni, dlatego polecany jest przede wszystkim do sypialni małżeńskiej. Rodzaje materacy do spania Materace do spania można podzielić na trzy główne rodzaje: piankowe, sprężynowe oraz lateksowe.  Każdy z nich ma swoje unikalne cechy, które w znaczący sposób wpływają na jakość snu i komfort użytkowania.   Materace piankowe Materace piankowe zapewniają stabilne podparcie kręgosłupa, higieniczne środowisko snu i wytrzymałość. Najczęściej wykonane są z profilowanej pianki wysokoelastycznej lub termoelastycznej – materiał dobrze reaguje na nacisk oraz temperaturę, dzięki czemu idealnie dopasowuje się do naturalnych krzywizn ciała, w rezultacie minimalizując ryzyko wystąpienia przykrych dolegliwości bólowych.      Materace sprężynowe Zalicza się do nich między innymi materace bonellowe oraz kieszeniowe/pocketowe. Jak sama nazwa wskazuje, ich konstrukcja oparta jest na specjalnych sprężynach, co gwarantuje optymalne wsparcie i amortyzację ciała podczas snu. Nowoczesne materace sprężynowe wyróżniają się punktową reakcją na nacisk, a więc nie przenoszą drgań przy zmianie pozycji. Właśnie z tego powodu stanowią idealną propozycję dla par. Materace lateksowe Materace z pianki lateksowej charakteryzuje wysoka elastyczność, sprężystość i odporność na odkształcenia. Ich główną zaletą jest hipoalergiczność – materace lateksowe nie chłoną wilgoci oraz kurzu, co zapobiega rozwojowi bakterii, grzybów i pleśni. Polecane są szczególnie dzieciom, alergikom oraz osobom z chorobami układu oddechowego.    Jak dobrać twardość materaca? Twardość materacy klasyfikuje się według czterostopniowej skali: H1 – materac miękki dla osób o wadze do 60 kg; H2 – materac średnio twardy dla osób o wadze od 60 do 80 kg; H3 – materac twardy dla osób o wadze od 80 do 100 kg; H4 – materac bardzo twardy dla osób ważących powyżej 100 kg. Wybierając materac do spania, zawsze należy kierować się indywidualnymi potrzebami i preferencjami. Warto zdecydować się na model wykonany z najwyższej jakości tworzyw, które zapewniają zdrowy i komfortowy sen, jak również trwałość na lata. « powrót do artykułu
  18. Każdy, kto zakłada jakąkolwiek stronę internetową, powinien zdawać sobie sprawę z tego, jak ważny jest odpowiedni dobór hostingu. Liczba możliwości i rozwiązań w tym zakresie jest bardzo szeroka, dlatego też decyzję w tej kwestii należy podejmować po uwzględnieniu znaczącej liczby czynników. Jak wybrać najlepszy, tani hosting? Wyjaśniamy to w niniejszym poradniku. Zapraszamy do lektury. Co to jest hosting? Mianem hostingu internetowego określa się usługę polegającą na udostępnianiu serwerów oraz niezbędnej infrastruktury towarzyszącej przez renomowane firmy hostingowe. Hosting sprawia, iż strony są przechowywane na serwerach, a w konsekwencji stają się dostępne dla wszystkich, którzy mają połączenie z internetem. Dzięki hostingowi każda strona może być opublikowana i odwiedzona przez każdego internautę na świecie. Dodatkowo, hosting daje też właścicielowi witryny możliwość przechowywania baz danych, plików oraz rozmaitych innych zasobów potrzebnych do tego, by strona mogła funkcjonować w optymalny sposób. Podejmując decyzję o tym, by kupić tani hosting, trzeba w sposób szczególny weryfikować, jaka jest renoma danej firmy, jakiego rodzaju usługi i w jakim zakresie świadczy a także czy zapewnia wsparcie techniczne. Weryfikacja tych informacji jest niezwykle ważna, ponieważ mając tą wiedzę zyskamy pewność, że zakładana przez nas strona będzie właściwie funkcjonować o każdej porze dnia i nocy, a wszelkiego rodzaju problemy techniczne będą usuwane w błyskawicznym tempie. Wybór hostingu - ważne wskazówki Przy podejmowaniu decyzji odnośnie wyboru hostingu dla strony internetowej warto zwracać uwagę na jak najwięcej kwestii. Wśród najistotniejszych czynników, o których trzeba koniecznie wspomnieć, jest oczywiście to, jakiego typu stronę chcemy prowadzić, oraz ile będzie wynosiła orientacyjna liczba jej użytkowników. W przypadku, gdy będzie to początkowo mniejszy portal, wato postawić na serwer współdzielony. Z kolei jeśli będzie to duże przedsięwzięcie, wówczas dobrym rozwiązaniem jest serwer w chmurze bądź dedykowany. Przed podjęciem decyzji warto dokładnie zweryfikować, ile wynosić będzie powierzchnia na dane. Dobrze jest też bardzo dokładnie zweryfikować, jakiego rodzaju wsparcie zaoferuje dana firma hostingowa. Zalecamy również, by sprawdzać, czy w danym hostingu możliwe jest tworzenie kopii bezpieczeństwa, a także, czy korzystanie z panelu administracyjnego jest wygodne. Warto też zweryfikować, czy dana firma oferuje bezpłatny okres próbny. Takie rozwiązanie pozwala na to, by zweryfikować w praktyce, jak wygląda administrowanie stroną w przypadku konkretnego hostingu. Dobrym pomysłem jest także zapoznanie się z opiniami na temat danego hostingu wśród dotychczasowych klientów. Tego typu informacje mogą stanowić prawdziwe bogactwo informacji na temat tego, czy warto zdecydować się na skorzystanie z usług danego przedsiębiorstwa, czy wprost przeciwnie. Kolejna ze wskazówek: wiele firm publikuje na swoich stronach wykaz swoich dotychczasowych klientów. Jeśli z jej usług korzystają znane, renomowane marki, jest to znak, iż świadczą one usługi na wysokim poziomie. « powrót do artykułu
  19. Para bobrów, reintrodukowana w Poole Farm w pobliżu Plymouth w Wielkiej Brytanii, zmniejszyła ryzyko powodzi i podtopień w mieście, informują naukowcy z University of Exeter. Uczeni postanowili przyjrzeć się, jaki wpływ na środowisko miała zaledwie jedna para zwierząt i odkryli, że tamy zbudowane przez bobry – wraz z podobnymi tamami wybudowanymi przez ochotników i pracowników Poole Farm – zmniejszają w szczycie przepływ wody przez Bircham Valley aż o 23%. To prawdopodobnie pierwsze badania dotyczące wpływu bobrów na środowisko miejskie. Bobry zostały reintrodukowane na Poole Farm w ramach projektu Green Minds zapoczątkowanego przez radę miasta Plymouth. W całym mieście zrobiono więcej miejsca dla przyrody, by jego mieszkańcy mogli cieszyć się kontaktem z nią i odnosić korzyści zdrowotne płynące z obcowania z naturą. Bobry zaczęły budować żeremia, utworzyły rozlewiska i tereny podmokłe. Autorzy najnowszych badań zauważyli, że dzięki bobrom na terenach miejskich pojawiły się kolejne zwierzęta, jak wydry, żaby, zimorodki i borsuki. Bobrom pomagali ochotnicy, którzy w ramach rozregulowywania biegu rzeki zbudowali 40 tam podobnych do bobrzych. I to właśnie rozlewiska, powstałe dzięki pracy ludzi i bobrów, zmniejszyły tempo przepływu wody i ryzyko powodzi oraz podtopień. Raport z 5-letniego monitoringu wpływu bobrów na środowisko został udostępniony w sieci. « powrót do artykułu
  20. Po raz pierwszy doszło do nieudanego wystrzelenia satelitów z konstelacji Starlink. W wyniku awarii satelity znalazły się na bardzo niskiej orbicie i wkrótce spłoną w atmosferze. Firma SpaceX zapewnia, że nie stanowią one zagrożenia. Pierwsze Starlinki trafiły na orbitę w 2019 roku. Obecnie konstelacja składa się z ponad 6000 niewielkich satelitów znajdujących się na niskiej orbicie okołoziemskiej (LEO). Dwadzieścia satelitów Starlink zostało wystrzelonych przed 4 dniami na pokładzie rakiety Falcon 9 z Vandenberg Space Force Base. Pierwszy stopień rakiety spisał się bez zarzutu, wynosząc na orbitę drugi stopień i satelity. Następnie oddzielił się od nich i z powodzeniem wylądował. Było to już 329. udane lądowanie rakiety nośnej przeprowadzone przez SpaceX. Pierwsze uruchomienie silników 2. stopnia przebiegło zgodnie z planem, jednak pojawił się wyciek ciekłego tlenu. W związku z tym silnik Merlin, który miał wynieść satelity na prawidłową orbitę, nie spełnił swojego zadania. Co prawda satelity zostały prawidłowo zwolnione, ale znajdują się na orbicie o dużym mimośrodzie, która w najniższym punkcie znajduje się zaledwie 135 kilometrów nad Ziemią. To ponaddwukrotnie niżej, niż powinny się znaleźć. Na tej wysokości pojazdy doświadczają znacznego tarcia o atmosferę, przez co z każdym obiegiem tracą 5 kilometrów wysokości w apogeum (najwyższym punkcie orbity). Oddziaływanie atmosfery na satelity jest tak silne, że ich silniki nie poradzą sobie z wyniesieniem pojazdów na prawidłową orbitę. Dlatego wkrótce satelity wejdą w atmosferę i w niej spłoną. SpaceX oświadczyła, że nie zagrażają one ani innym satelitom, ani ludziom na Ziemi. To przypomina nam, jak wymagające technicznie są loty w kosmos. Dotychczas przeprowadziliśmy 364 udane starty rakiet Falcon – które bezpiecznie dostarczały astronautów, ładunki i tysiące satelitów Starlink na orbitę – co czyni z rodziny Falcon jedną z najlepszych serii rakiet nośnych w historii, czytamy w firmowym oświadczeniu. « powrót do artykułu
  21. Tachiony to hipotetyczne cząstki, poruszające się szybciej niż światło. Jeszcze do niedawna uważano, że ich istnienie nie mieści się w ramach szczególnej teorii względności. Jednak praca, opublikowana przez fizyków z Uniwersytetu Warszawskiego i University of Oxford dowodzi, że nie jest to opinia prawdziwa. Tachiony nie tylko nie są wykluczone przez szczególną teorię względności, ale pozwalają ją lepiej zrozumieć, dowodzą profesorowie Artur Ekert, Andrzej Dragan, doktorzy Szymon Charzyński i Krzysztof Turzyński oraz Jerzy Paczos, Kacper Dębski i Szymon Cedrowski. Istniały trzy powody, dla których tachiony nie pasowały do teorii kwantowej. Po pierwsze, stan podstawowy pola tachionowego miał być niestabilny, a to oznaczało, że te poruszające się szybciej niż światło cząstki tworzyłyby się same z siebie. Po drugie, zmiana obserwatora miałaby prowadzić do zmiany liczby cząstek. Po trzecie, ich energia miałaby przyjmować wartości ujemne. Z pracy opublikowanej na łamach Physical Review D dowiadujemy się, że problemy z tachionami miały wspólną przyczyną. Okazało się bowiem, że aby obliczyć prawdopodobieństwo procesu kwantowego, w którym udział biorą tachiony, trzeba znać zarówno jego przeszły stan początkowy, jak i końcowy. Gdy naukowcy uwzględnili to w teorii, znikają problemy związane z tachionami, a sama teoria okazała się matematycznie spójna. Idea, że przyszłość może mieć wpływ na teraźniejszość zamiast teraźniejszości determinującej przyszłość nie jest w fizyce nowa. Jednak dotąd tego typu spojrzenie było co najwyżej nieortodoksyjną interpretacją niektórych zjawisk kwantowych, a tym razem do takiego wniosku zmusiła nas sama teoria. Żeby „zrobić miejsce” dla tachionów musieliśmy rozszerzyć przestrzeń stanów, mówi profesor Dragan. Autorzy badań zauważają, że w wyniku rozszerzenia przez nich warunków brzegowych, pojawia się nowy rodzaj splątania kwantowego, w którym przeszłość miesza się z przeszłością. Ich zdaniem, tachiony to nie tylko możliwy, ale koniczny składnik procesu spontanicznego łamania symetrii odpowiedzialnego za powstanie materii. To zaś może oznaczać, że zanim symetria zostanie złamana, wzbudzenie pola Higgsa może przemieszczać się z prędkościami większymi od prędkości światła. « powrót do artykułu
  22. Strona firmowa musi być wydajna i bezpieczna. Te zalety łączy w sobie pakiet hostingu Pro od OVHcloud. Poznajcie to rozwiązanie dla witryn o średnim i dużym ruchu. Firmowa strona to centrum wszystkich działań promocyjnych online. By przyniosły one oczekiwane skutki, powinniście zadbać o to, by witryna była w pełni funkcjonalna. Ta cecha z kolei zależy nie tylko od projektu strony, ale też sprawności serwera. A to na pewno wystarczający powód, żeby do wyboru dostawcy hostingu podejść z dużą starannością. Jeśli szukacie skalowalnych i niezawodnych usług, koniecznie sprawdźcie ofertę przygotowaną przez OVHcloud. Strona firmowa z OVHcloud – od domeny po hosting Pierwszy krok do zbudowania rozpoznawalności online to rejestracja odpowiedniej domeny. W OVHcloud możecie wybierać wśród wielu rozszerzeń – np. .COM, .PL, .CLOUD, .TECH, .DEV, .EARTH, .BIZ i .XYZ. Bez problemu stworzycie więc adres idealnie dopasowany do specyfiki działalności waszej firmy. Rejestrując domenę w OVHcloud, możecie też skorzystać z darmowych usług dodatkowych, takich jak adres e-mail ze skrzynką o pojemności 5 GB. OVHcloud dba o wasze bezpieczeństwo, oferując ochronę przed atakami na serwer DNS dzięki domyślnej opcji DNSSEC oraz przed nieautoryzowanym transferem domeny. Łatwe przekierowywanie oraz zarządzanie subdomenami i kontami e-mail w panelu klienta umożliwia zaś usługa DNS Management. OVHcloud. Hosting dopasowany do waszych potrzeb Przy wyborze oferty powinniście zwrócić uwagę nie tylko na to, by serwer zapewniał niezawodne działanie serwisu, ale też na cenę. Zbyt rozbudowany pakiet niepotrzebnie obciąży wasz budżet, a z większości oferowanych w jego ramach funkcji nigdy nie skorzystacie. OVHcloud daje wam możliwość możliwość jednego z czterech pakietów: Personal: adresowany do użytkowników rozpoczynających swoją pracę w sieci. Doskonale sprawdzi się podczas tworzenia pierwszej witryny lub bloga; Pro: dostosowany do specyfiki profesjonalnych witryn; Performance: dla projektów multisite i sklepów internetowych; Cloud Web: do projektów obejmujących tworzenie stron www. OVHcloud Pro. Pakiet idealny dla przedsiębiorców. W przypadku strony firmowej najlepszym wyborem zwykle okazuje się pakiet Pro. To wynajem serwera dostosowany do potrzeb rozwijających się stron firmowych o średnim i dużym ruchu. Serwery są szybkie i niezawodne, zapewniając płynne ładowanie stron oraz działanie aplikacji. Brak opóźnień lub usterek przekłada się z kolei na lepsze doświadczenia użytkowników i wyższą konwersję. Pakiet Pro oferuje większą przestrzeń dyskową i więcej zasobów systemowych w porównaniu do podstawowych pakietów hostingowych. W jego ramach otrzymacie wystarczającą ilość miejsca na wszystkie pliki, bazy danych i aplikacje. Większa ilość zasobów systemowych umożliwia też obsługę większego ruchu na stronie bez utraty wydajności. Bezpieczeństwo danych jest jednym z waszych priorytetów. Dlatego pakiet Pro od OVHcloud wzbogacony został o zaawansowane funkcje bezpieczeństwa takie jak darmowy certyfikat SSL, ochrona przed atakami na serwer DNS czy automatyczne tworzenie kopii zapasowych. Swoim użytkownikom OVHcloud gwarantuje łatwe zarządzanie hostingiem za pomocą intuicyjnego panelu administracyjnego. Pakiet Pro jest też w pełni skalowalny, dzięki czemu możecie bez problemu zwiększyć zasoby w miarę wzrostu swojej strony internetowej i zapotrzebowania na większą moc obliczeniową. W przypadku problemów technicznych lub wątpliwości, możecie liczyć na pomoc ze strony zespołu ekspertów OVHcloud. Pakiet Pro od OVHcloud to hosting, które łączy w sobie wysoką wydajność, niezawodność i zaawansowane funkcje bezpieczeństwa. Dzięki intuicyjnemu zarządzaniu, wsparciu technicznemu i możliwości rozszerzenia, możecie skoncentrować się na rozwijaniu swojego biznesu, bez konieczności tracenia czasu na obsługę strony firmowej. « powrót do artykułu
  23. Od 20 czerwca do 20 września w niektórych sklepach firmy LEGO można oglądać klocki stworzone z pyłu z meteorytów. Autorem klocków nie jest jednak słynna duńska firma, a Europejska Agencja Kosmiczna. Jej inżynierowie chcieli sprawdzić możliwość tworzenia materiałów budowlanych bezpośrednio na powierzchni Księżyca. Z materiałów takich powstałaby stała księżycowa baza. Księżyc pokryty jest warstwą luźnej zwietrzałej skały, regolitem. Można by go wykorzystać do zbudowania bazy. Problem w tym, że nie mamy zbyt dużo księżycowego regolitu, z którym można eksperymentować. Eksperci z ESA stworzyli więc własny regolit, mieląc meteoryt sprzed 4,5 miliarda lat. Uzyskany w ten sposób proszek wykorzystali jako podstawę do stworzenia materiału z którego, za pomocą drukarki 3D, stworzyli kosmiczne cegłówki w kształcie klocków LEGO. Pozwoliło im to na budowanie i testowanie różnych struktur. Dotychczas nikt niczego na Księżycu nie zbudował. Mogliśmy wypróbować różne projekty i techniki. Było to i zabawne, i bardzo pożyteczne doświadczenie, dzięki któremu poznaliśmy ograniczenia tej technologii, mówi Aidan Cowley z ESA. Niedawno niektóre z kosmicznych cegieł ESA trafiły do wybranych sklepów LEGO. To sposób na zainteresowanie dzieci kosmosem i zachęcenie do zbudowania własnych baz kosmicznych z kloców. Nie jest tajemnicą, że naukowcy i inżynierowie czasami w swojej pracy posiłkują się klockami LEGO. Kosmiczne cegły stworzone przez ESA to wspaniały sposób, by zainspirować młodych ludzi i pokazać im, że zabawa i siła wyobraźni mogą odgrywać ważną rolę w eksploracji kosmosu, dodaje Emmet Flether, kierująca w ESA Branding and Partnerships Office. « powrót do artykułu
  24. Odkryty przed kilkunastu laty bozon Higgsa wciąż stanowi zagadkę. Dotychczas nie udało się poznać jego właściwości z zadowalającą dokładnością. Teraz, dzięki pracy międzynarodowego zespołu, w skład którego wchodzili uczeni z Instytutu Fizyki Jądrowej Polskiej Akademii Nauk, dowiedzieliśmy się więcej o pochodzeniu tej niezwykle ważnej cząstki, która nadaje masę innym cząstkom elementarnym. Dla fizyka jednym z najważniejszych parametrów związanych z każdą cząstkę elementarną czy jądrową jest przekrój czynny na określone zderzenie. Niesie on bowiem informację o tym, jak często możemy spodziewać się pojawienia danej cząstki w zderzeniach wybranego typu. My skoncentrowaliśmy się na teoretycznym wyznaczeniu wartości przekroju czynnego bozonów Higgsa w zderzeniach gluon-gluon. Są one odpowiedzialne za produkcję około 90% higgsów, których ślady obecności zarejestrowano w detektorach akceleratora LHC, mówi doktor Rene Poncelet z IFJ PAN w Krakowie. A profesor Michał Czakon z RWTH Aachen University dodaje istotą naszych prac była chęć uwzględnienia przy wyznaczaniu przekroju czynnego na produkcję bozonów Higgsa pewnych poprawek, które z uwagi na pozornie niewielki wkład zazwyczaj są pomijane, ponieważ ich zignorowanie znacząco upraszcza obliczenia. Nam po raz pierwszy udało się pokonać trudności matematyczne i wyznaczyć te poprawki. Wśród naukowców panuje przekonanie, że musi istnieć jakaś fizyka poza Modelem Standardowym. Wynika ona z faktu, że Model Standardowy, chociaż wielokrotnie udowodnił swoją prawdziwość, nie daje odpowiedzi na szereg podstawowych pytań. Nie wiemy na przykład, dlaczego cząstki elementarne mają takie, a nie inne masy, Model Standardowy nie uwzględnia oddziaływania grawitacyjnego. Zdecydowanie wymaga więc rozszerzenia. Być może taką fizykę spoza MS uda się znaleźć badając bozon Higgsa. Autorzy najnowszych badań zajęli się wyliczaniem poprawek drugorzędowych. Pozornie są one niewielkie, ale wnoszą niemal 1/5 do poszukiwanego przekroju czynnego. Nowością, jaką zastosowali, było uwzględnienie wpływu mas kwarków pięknych. W Wielkim Zderzaczu Hadronów dochodzi do kolizji protonów, zbudowanych z dwóch kwarków górnych i kwarka dolnego. Chwilowe pojawianie się kwarków o większych masach, jak kwark piękny, to skutek oddziaływań kwantowych, które wiążą kwarki w protonie. Wartości przekroju czynnego na produkcję bozonu Higgsa znalezione przez naszą grupę oraz zmierzone w dotychczasowych zderzeniach wiązek w akceleratorze LHC są praktycznie takie same, naturalnie przy uwzględnieniu obecnych niedokładności obliczeniowych i pomiarowych. Wygląda więc na to, że w obrębie badanych przez nas mechanizmów odpowiedzialnych za powstawanie bozonów Higgsa nie widać zwiastunów nowej fizyki – przynajmniej na razie, informuje doktor Poncelet. To jednak nie oznacza, że tej nowej fizyki nie ma. Nie można wykluczyć na przykład, że zauważy się ją w zjawiskach towarzyszących narodzinom bozonu Higgsa. Coraz większa liczba danych napływających z LHC oraz coraz doskonalsze narzędzia i techniki pomiarowe pozwalają bowiem zawężać niepewności pomiarowe. Być może z czasem okaże się, że wyniki pomiarów przestają zgadzać się z teorią. Na razie jednak Model Standardowy trzyma się dobrze, kolejne badania go potwierdzają i – ku zdumieniu coraz większej liczby naukowców – wciąż nie możemy trafić na dowód istnienia fizyki poza MS. « powrót do artykułu
  25. Badania szybko poruszających się gwiazd w gromadzie Omega Centauri dostarczyły dowodów, że w centrum gromady znajduje się czarna dziura. Jej masę oszacowano na 8200 mas Słońca, co nie tylko wskazuje, że należy ona do czarnych dziur o średniej masie, ale również, że jest najbliższą nam masywną czarną dziurą. Omega Centauri znajduje się bowiem w odległości około 18 000 lat świetlnych od Ziemi. Omega Centauri to nagromadzenie około 10 milionów gwiazd, które widać na półkuli południowej jako smugę. Wygląda jak typowa gromada kulista, ale teraz Maximilian Häberle z Instytutu Astronomii im. Maxa Plancka potwierdził to, co od pewnego czasu podejrzewano – Omega Centauri posiada czarną dziurę o średniej masie. Stanowiłaby więc ona element pośredni pomiędzy gwiazdowymi czarnymi dziurami (o masie kilkudziesięciu mas Słońca), a supermasywnymi czarnymi dziurami, których masa jest może być miliardy razy większa od masy Słońca. Pierwsza wzmiankę o Omega Centauri u Klaudiusza Ptolemeusza, który 1900 lat temu uznał ją za gwiazdę. W 1677 roku Edmond Halley stwierdził, że to mgławica, a w latach 30. XIX wieku John Herschel jako pierwszy prawidłowo rozpoznał w niej gromadę gwiazd.  Badacze uważają, że Omega Centauri to rdzeń niewielkiej galaktyki, której ewolucja została gwałtownie przerwana, gdy wchłonęła ją Droga Mleczna. A czarna dziura w jej centrum może być interesującym obiektem badań, który poszerzy naszą wiedzę o kosmosie. Czarne dziury o pośredniej masie są bardzo trudne do znalezienia. Duże galaktyki, jak Droga Mleczna, zawierają supermasywne czarne dziury. Z kolei galaktyki karłowate trudno jest obserwować. Dla współczesnych instrumentów obserwacja ich centralnych części to prawdziwe wyzwanie. Obecna praca dostarcza najsilniejszych dowodów na ich istnienie. Gdy Omega Centauri została wchłonięta przez Drogę Mleczną, z niewielkiej galaktyki pozostał tylko jej rdzeń. Reszttę gwiazd zabrała jej nasza galaktyka. Omega Centauri została więc „zamrożona w czasie”. Nie połączy się już z żadną inną galaktyką, żadnej nie wchłonie, jej czarna dziura nie ma jak rosnąć. Przed pięcioma laty Nadine Neumayer z Instytutu Astronomii im. Maxa Plancka i Anil Seth z University of Utah, stworzyli projekt badawczy, którego celem było lepsze zrozumienie ewolucji Omega Centauri. Stwierdzili, że jeśli uda się odnaleźć w centrum gromady szybko poruszającą się gwiazdę, krążącą wokół czarnej dziury, będzie to dowód na istnienie dziury. Zadania podjął się doktorant Maximilian Häberle. Wraz z zespołem zaczął tworzyć katalog ruchu gwiazd w gromadzie. Uczeni mierzyli prędkości 1,4 miliona gwiazd widocznych na ponad 500 zdjęciach wykonanych przez Teleskop Hubble'a. Co prawda większość z tych fotografii zrobiono na potrzeby kalibracji instrumentów mikroskopu, ale okazały się wyjątkowo użyteczne. Efektem pracy zespołu Häberle jest nie tylko największy katalog ruchu gwiazd w Omega Centauri. Uczeni znaleźli nie jedną, a aż 7 gwiazd, które w szybkim tempie okrążają niewielki obszar w centrum klastra. Te gwiazdy są tak szybkie, gdyż poruszają się w pobliżu dużej skoncentrowanej masy. Gdyby odkryli tylko 1 gwiazdę, nie byłoby wiadomo, czy porusza się ona szybko dlatego, że masa, wokół której krąży, jest tak duża, czy dlatego, że gwiazda jest tak blisko centrum masy. Jednak 7 gwiazd o różnych prędkościach i orbitach pozwoliło na obliczenie, że poruszają się one wokół obiektu o masie co najmniej 8200 mas Słońca. Na obrazach nie widać żadnego takiego obiektu, mamy więc do czynienia z czarną dziurą. Co więcej, gdyby odkryto 1 taką gwiazdę, nie można by być nawet pewnym, że należy ona do Omega Centauri. Mogła to być gwiazda, która przypadkiem – z naszego punktu widzenia – przechodzi właśnie dokładnie za lub dokładnie przed centrum gromady. Obecność 7 gwiazd wskazuje, że nie mamy tu do czynienia z przypadkiem, a zdarzenie takie wyjaśnia tylko obecność czarnej dziury. Autorzy obecnych badań zlokalizowali centralny region Omega Centauri z dokładnością do trzech sekund łuku. Jednak nie powiedzieli jeszcze ostatniego słowa. Chcą bowiem bardziej dokładnie zbadać centrum gromady. Udało im się zarezerwować czas obserwacyjny na Teleskopie Webba oraz dwóch przyszłych instrumentów badawczych – GRAVITY+ na Very Large Telescope i MICADO na Extremely Large Telescope. Chcą dzięki temu jeszcze bardziej precyzyjnie określić pozycję badanych gwiazd, ich przyspieszenie i orbitę. Przyszłe pokolenia astronomów będą zaś mogły śledzić wspomniane gwiazdy na całej ich orbicie. Okrążają one bowiem czarną dziurę w czasie ponad 100 lat. Gwiazdy krążące wokół supermasywnej Sagittarius A* w centrum Drogi Mlecznej obiegają ją nawet w ciągu kilkunastu lat. Czarna dziura w Omega Centauri  ma znacznie mniejszą masę, więc i prędkość krążących gwiazd jest mniejsza, przez co okres orbitalny jest dłuższy. « powrót do artykułu
×
×
  • Dodaj nową pozycję...