-
Liczba zawartości
37623 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
246
Zawartość dodana przez KopalniaWiedzy.pl
-
Jednym z największych problemów, z jakim muszą mierzyć się twórcy komputerów kwantowych, jest olbrzymia liczba błędów, które generują takie maszyny podczas obliczeń. W przeciętnej maszynie kwantowej odsetek błędów wynosi 1:1000 (10-3). W niektórych komputerach jest to aż 1:100, a najlepszy odsetek błędów wynosi 1:10 000 (10-4). To zdecydowanie zbyt dużo. Wielu ekspertów uznaje, że o użytecznym komputerze kwantowym będziemy mogli mówić, gdy odsetek błędów spadnie do 10-12. Odsetek błędów w komputerach klasycznych wynosi 10-18. Jedną z firm, które od dawna pracują nad problemem błędów w komputerach kwantowych, jest Microsoft. Wśród rozwiązań, jakie proponują tamtejsi eksperci, jest tworzenie mniejszej liczby logicznych kubitów, z większej liczby kubitów fizycznych. Powstaje w ten sposób system wirtualizacyjny kubitów. W arXiv udostępniono artykuł, w którym opisano efekty współpracy inżynierów Quantinuum i Microsoftu. Firma Quantinuum dostarczyła komputer kwantowy H2, który korzysta z kubitów w pułapce jonowej, natomiast wkład Microsoftu to oprogramowanie do wirtualizacji kubitów. W ramach testów użyto 30 z 32 dostępnych na H2 kubitów fizycznych i utworzono 4 kubity logiczne. Całość przetestowano uruchamiając 14 000 eksperymentów. Okazało się, że wszystkie wypadły bezbłędnie, nie wykryto żadnego błędu. Kolejne testy wykazały, że odsetek błędów generowanych przez system wynosi 1:100 000 (10-5), jest więc 800-krotnie niższy niż na maszynie H2 pracującej bez oprogramowania Microsoftu. Autorzy eksperymentu twierdzą, że stworzyli komputer kwantowy 2. poziomu, czyli taki, który charakteryzuje dość niski odsetek błędów oraz możliwość dalszego skalowania i poprawiania jakości pracy. « powrót do artykułu
-
Jeśli to prawda, to mamy tutaj pierwszą od 25 lat prawdziwą wskazówkę odnośnie natury ciemnej energii, mówi astrofizyk Adam Riess, laureat Nagrody Nobla za odkrycie, że tempo rozszerzania się wszechświata jest coraz szybsze. Uczony odniósł się do opublikowanych danych z pierwszego roku obserwacji Dark Energy Spectroscopic Instrument (DESI). Możliwe, że mamy tutaj informacje wskazujące, iż ciemna energia podlega ewolucji, dodaje członek DESI, Dillon Brout. Naukowcy podkreślają, że jest zbyt wcześnie, by mówić o odkryciu. Jednak trzy różne zestawy również sugerują danych, że ciemna energia może nie być stałą kosmologiczną, a to z kolei ma olbrzymie znaczenie dla jednego z najpowszechniej uznawanych modeli kosmologicznych. Teleskop DESI został po raz pierwszy uruchomiony w 2019 roku. Proces kalibracji i weryfikacji działania instrumentu zakłóciła pandemia. Teleskop rozpoczął badania w połowie maja 2021 roku i właśnie opublikowano dane zebrane do czerwca 2022. Tych 12 miesięcy wystarczyło do stworzenia największej trójwymiarowej mapy wszechświata i przeprowadzenia najdoskonalszych pomiarów ciemnej energii. DESI stworzył bardziej szczegółową mapę niż wszystkie dotychczasowe instrumenty razem wzięte i jako pierwszy pozwolił na określenie tempa rozszerzania się wszechświata w okresie od 8 do 11 miliardów lat temu z precyzją lepszą niż 1%. Naukowcy pracujący przy DESI opublikowali i przygotowali do publikacji imponującą liczbę artykułów naukowych. Jesteśmy niesamowicie dumni z uzyskanych przez nas światowej klasy wyników oraz z faktu, że jesteśmy pierwszymi, którzy pokazują dane z badań nowej generacji nad ciemną energią. Jak dotychczas widzimy tutaj potwierdzenie najlepszych modeli kosmologicznych, dostrzegamy jednak potencjalnie interesujące różnice, które mogą wskazywać, że ciemna energia ewoluuje w czasie. W miarę napływu kolejnych danych różnice te mogą się potwierdzić lub zniknąć, dlatego niecierpliwie czekamy na rozpoczęcie analiz z trzyletniego okresu obserwacji, cieszy się dyrektor DESI Michael Levi z Lawrence Berkeley National Laboratory. Podstawowym modelem kosmologicznym jest Lambda CDM. Uwzględnia on ciemną energię (stała kosmologiczna lambda) oraz zimną ciemną materię (cold dark matter, CDM). Materia i ciemna energia wpływają na rozszerzanie się wszechświata, jednak w różny sposób. Otóż materia i ciemna materia spowalniają rozszerzanie, a ciemna energia przyspiesza ten proces. Względna ilość obu czynników wpływa na ewolucję wszechświata. Model ten dobrze wyjaśnia dotychczas uzyskiwane wyniki oraz obecny i przeszły wygląd wszechświata. Jednak gdy przyjrzymy się danym z DESI i porównamy je z danymi z wcześniejszych badań, widzimy pewne subtelne różnice. W tej chwili nie wiemy, czy są to jedynie fluktuacje statystyczne, które znikną wraz z pojawieniem się kolejnych danych, czy też kolejne dane potwierdzą istnienie tych różnic. Dane te powinny też doprecyzować inne informacje dostarczone przez DESI, które dotyczą stałej Hubble'a czy masy neutrina. DESI to wspaniały eksperyment dostarczający niesamowitych danych, zachwyca się Riess. W porównaniu z jednym z najważniejszych przeglądów nieba w historii, Sload Digital Sky Survey, DESI błyskawicznie zbiera dane. Niedawno instrument w ciągu tylko jednej nocy określił lokalizację niemal 200 000 galaktyk. Dotychczas żadne badania spektroskopowe nie dostarczyły nam tylu danych. Co miesiąc zbieramy informacje o ponad milionie galaktyk, mówi Nathalie Palanque-Delabrouille z Berkeley Lab. Dzięki temu już po roku naukowcy byli w stanie zmierzyć tempo rozszerzania się wszechświata w siedmiu różnych przedziałach czasowych. Zrekonstruowali historię rozszerzania się wszechświata w ciągu ostatnich 11 miliardów lat z precyzją wynoszącą 0,5%, a dla najstarszej z badanych epok, 8–11 miliardów lat temu, precyzja wyniosła rekordowe 0,82%. Takie pomiary są niezwykle trudne, a mimo to DESI po roku pracy dostarczył bardziej precyzyjnych wyników dotyczących tej wczesnej epoki niż projekt BOSS/eBOSS (Sloan Digital Sky Survey) po ponad 10 latach badań. Celem DESI jest sprawdzenie, jak wszechświat rozszerzał się w ciągu siedmiu epok swojej historii. Następnie naukowcy sprawdzają, jak dokonane pomiary pasują do modelu Lambda CDM. Z pierwszego roku badań wynika, że dane dostarczone przez DESI bardzo dobrze pasują do tego modelu, ale po uwzględnieniu innych danych, jak np. informacji o mikrofalowym promieniowaniu tła czy mapy supernowych, pojawiają się pewne niezgodności. Pojawia się rozbieżność z przewidywaniami Lambda CDM o 2.5, 3.5 lub 3.9 sigma, w zależności od tego, której z trzech map supernowych użyjemy. Czy jest to dużo? By to sobie uświadomić, posłużmy się przykładem. Gdy rzucamy monetą 100 razy możemy się spodziewać, że 50 razy wypadnie orzeł, a 50 razy reszka. Jeśli reszka wypadnie 60 razy mówimy o odchyleniu 2 sigma od średniej. Prawdopodobieństwo wystąpienia takiego wydarzenia całkowicie przypadkowo wynosi 1:20. Jeśli jednak reszka wypadnie 75 razy to prawdopodobieństwo uzyskania takiego wyniku całkowicie przypadkiem wynosi 1:2 000 000. To wartość 5 sigma, od której w fizyce mówimy o odkryciu. Odchylenie wynikające z badań DESI leży gdzieś pomiędzy wspomnianymi wartościami i w tej chwili nie potrafimy powiedzieć, czy to jedynie fluktuacja wyników czy dowód na to, że ciemna energia zmienia się w czasie. « powrót do artykułu
-
Naukowcy z University of Cambridge stworzyli największą bazę ludzkich komórek piersi. Udało się dzięki temu określić wczesne mutacje w genach BRCA1 oraz BRCA2. Mutacje w tych genach zwiększają ryzyko nowotworów piersi i jajników. Naukowcy zauważyli, że komórki odpornościowe w tkankach piersi zdrowych kobiet, u których występują mutacje w BRCA1 i BRCA2, wykazują oznaki nieprawidłowego działania znanego jako „wyczerpanie”. Z tego powodu mogą nie być zdolne do oczyszczania organizmu z uszkodzonych komórek, z których może rozwinąć się nowotwór. Nasze badania wskazują, że w sytuacji wystąpienia mutacji BRCA układ odpornościowy nie jest w stanie zabijać uszkodzonych komórek w piersiach, mówi profesor Walid Khaled, jeden z autorów badań. Jesteśmy bardzo podekscytowani tym odkryciem, gdyż otwiera to możliwości działań prewencyjnych innych niż chirurgia u osób z mutacją BRCA. Już w tej chwili istnieją leki, które pozwalają na odblokowanie niedziałających komórek układu odpornościowego, ale dotychczas są one stosowane wyłącznie na późnych etapach choroby. Tak naprawdę nikt nie rozważał używania ich w profilaktyce chorób nowotworowych. Jednym z rozwiązań prewencyjnych jest chirurgiczne usunięcie piersi u osób, u których występuje podwyższone ryzyko rozwoju nowotworu. Profesor Khaled zwraca natomiast uwagę, że najlepszym sposobem zapobiegania nowotworom jest przede wszystkim zrozumienie, w jaki sposób się one rozwijają. Dopiero dzięki temu będziemy mogli zidentyfikować te wczesne zmiany i podjąć odpowiednie działania. Nowotwory w późnym stadium rozwoju są zwykle bardzo nieprzewidywalne i trudne do opanowania. Opracowujemy coraz to lepsze i lepsze leki, a nowotwory wydają się opracowywać metody radzenia sobie z nimi, mówi Khaled. Autorzy badań pobrali próbki od 55 kobiet w różnym wieku i stworzyli katalog ponad 800 000 komórek, który zawiera wszystkie rodzaje komórek obecnych w piersiach. W ten sposób powstał Human Breast Cell Atlas, który został udostępniony innym badaczom. Atlas zawiera olbrzymią ilość informacji na temat czynników ryzyka rozwoju raka piersi, w tym na temat wpływu BMI, alkoholu, stosowania antykoncepcji itp. itd. Odkryliśmy, że istnieje wiele rodzajów komórek piersi, które się zmieniają. Zmiany zachodzą na przykład podczas ciąży, wraz z wiekiem, wpływają na nie też inne czynniki oraz połączenie tych czynników, a to wpływa na całkowite ryzyko rozwoju nowotworu, dodaje doktorant Austin Reed. Jednym z największych wyzwań odnośnie nowotworu piersi jest fakt, że tak naprawdę nie jest to jedna choroba, a wiele schorzeń. Do pojawienia się nowotworu piersi może prowadzić bardzo wiele mutacji genetycznych, a poszczególne mutacje wchodzą ze sobą w skomplikowane interakcje. Na przykład wiadomo, że ryzyko rozwoju raka piersi rośnie wraz z wiekiem, ale okazuje się, że ryzyko to jest znacznie mniejsze u kobiet, które zaszły w ciążę w młodym wieku. Autorzy nowych badań chcieli zrozumieć, w jaki sposób te czynniki ryzyka wchodzą w interakcje i opisali różne rodzaje komórek znajdujących się w ludzkich piersiach w zależności od stanu fizjologicznego organizmu. « powrót do artykułu
-
Wbrew temu, co możemy usłyszeć od każdego matematyka, liczby pierwsze można przewidzieć, twierdzą naukowcy z City University of Hong Kong oraz North Carolina State University w USA. Przez tysiące lat – a pierwszym zachowanym studium liczb pierwszych są prace Euklidesa – uważano, że liczby takie pojawiają się przypadkowo, nie można z góry przewidzieć, jaka liczba będzie kolejną liczbą pierwszą. Dlatego też Way Kuo, jeden z autorów najnowszych badań, nazywa je rewolucyjnymi na polu teorii liczb pierwszych. Liczby pierwsze to liczby naturalne większe od 1, które bez reszty dzielą się tylko przez siebie same i przez 1. Kuo i jego koledzy, Han-Lin Li oraz Shu-Cherng Fang poinformowali o stworzeniu tablicy okresowej liczb pierwszych (PTP – Periodic Table of Primes). To metoda dokładnego i szybkiego przewidzenia, w którym miejscu pojawią się liczby pierwsze, mówi Kuo. PTP może zostać wykorzystana między innymi do faktoryzacji (rozkładu na czynniki) liczb całkowitych, identyfikowania liczb bliźniaczych – czyli dwóch liczb pierwszych, których różnica wynosi 2, przewidywania całkowitej liczby liczb pierwszych czy liczb bliźniaczych w konkretnym przedziale liczb. PTP może mieć olbrzymie znaczenie na polu bezpieczeństwa, gdyż liczby pierwsze są podstawą współczesnej kryptografii i bezpiecznego przesyłania danych. Artykuł The Periodic Table of Primes został opublikowany na łamach SSRN Electronic Journal. Dzięki temu każdy może się z nim zapoznać. Pozostaje pytanie, ile osób jest w stanie go zrozumieć, zatem jak długo potrwa weryfikacja i ewentualne potwierdzenie bądź odrzucenie PTP. « powrót do artykułu
-
W Mikułowicach detektorysta znalazł zakopaną zbroję husarską
KopalniaWiedzy.pl dodał temat w dziale Humanistyka
Przed tygodniem detektorysta Patryk Chmielewski znalazł na działce we wsi Mikułowice w województwie świętokrzyskim żelazną zbroję husarską. To niezwykle rzadkie odkrycie. Zbroje i ich elementy były cennymi pamiątkami rodzinnymi, trafiały do prywatnych i publicznych kolekcji. W polskich zbiorach muzealnych wyjątkowo trafiają się zbroje wyjęte z grobów. Nie ma prawdopodobnie żadnego przykładu zbroi, która zostałaby celowo zakopana. A tak właśnie było w przypadku zbroi z Mikułowic. Zbroja jest niekompletna. Brakuje w niej kirysu, który składał się napierśnika i naplecznika, czasem zastępowanego przez okrągłe umbo. Znalezisko składa się z półkolistego hełmu, szyszaka, z policzkami (osłonami boków twarzy) oraz częściowo zachowanym nakarczkiem. Jest też dwuczęściowy obojczyk chroniący szyję i kark, lewy naramiennik oraz dwa karwasze chroniące przedramiona. Elementy zbroi złożono jeden na drugim i zakopano na głębokości 60 centymetrów. Specjaliści wykluczają, by trafiły one do ziemi w czasie walk, gdyż po bitwie skrupulatnie zbierano pozostały oręż. W tym przypadku ktoś, z nieznanych nam powodów, zakopał elementy zbroi w wąskiej jamie i już po nie nie wrócił. Niekompletność znaleziska utrudnia jego datowanie, ale kształt szyszaka wskazuje na XVI wiek, prawdopodobnie na jego pierwszą połowę. W zbroi nie ma elementów dekoracyjnych z metali kolorowych, a to wskazuje, że raczej powstała w lokalnym warsztacie dla średnio zamożnego szlachcica. Jej właścicielem z pewnością nie był żaden możnowładca. Husaria, początkowo jazda lekkozbrojna, pojawia się w XVI wieku. W 2. połowie wieku XVII jest już elitarną jednostką ciężkozbrojną. Jako odrębny rodzaj jazdy została zlikwidowana w wojsku polskim w latach 70. XVIII wieku. « powrót do artykułu -
Autorzy najnowszych badań zauważyli, że 25% labradorów retriverów jest nosicielami mutacji genetycznej, która powoduje, że ciągle odczuwają głód i spalają mniej kalorii. To zaś oznacza, że są szczególnie podatne na rozwój otyłości. Właściciele takich psów muszą szczególnie zwracać uwagę na ich dietę oraz na poziom ich aktywności fizycznej. Wspomniana mutacja występuje w genie POMC, który odgrywa krytyczną rolę w regulacji głodu i użycia energii. Mutację POMC stwierdzono u 25% labradorów retrieverów i 66% flat coated retrieverów. Nowe badania pokazują, że mutacja ta głęboko zmienia sposób zachowania psów przy jedzeniu. Okazuje się, że psy, mimo iż nie potrzebują więcej jeść, czują się głodne pomiędzy posiłkami. Ponadto podczas odpoczynku zużywają o około 25% mniej energii niż psy bez tej mutacji. Odkryliśmy, że mutacja w genie POMC powoduje, że psy odczuwają głód. Mają więc skłonność do przejadania się, gdyż szybciej niż psy bez mutacji są głodne pomiędzy posiłkami, mówi główna autorka badań, doktor Eleanor Raffan z Wydziału fizjologii, rozwoju i neuronauk University of Cambridge. Psy z tą mutacją zmagają się z dwoma problemami. Nie tylko chcą jeść więcej, ale również potrzebują mniej kalorii, gdyż nie spalają ich tak szybko jak inne psy, dodaje uczona. Takie zwierzęta bez przerwy szukają możliwości zjedzenia czegoś, więc ich właścicielom bardzo trudno jest zadbać o ich prawidłowa wagę. Naukowcy radzą właścicielom, by odwracali uwagę swoich pupili od ciągle dręczącego ich uczucia głodu. Można to zrobić poprzez podzielenie ich dziennych porcji na więcej posiłków i podawanie im ich częściej, wsadzanie żywności do specjalnych zabawek czy chowanie jej w domu lub ogrodzie, by posiłek trwał dłużej. W badaniach wzięło udział 87 dorosłych labradorów. Wszystkie miały prawidłową wagę lub lekka nadwagę. Najpierw psy karmiono co 20 minut, aż same decydowały, że już nie chcą więcej. Wszystkie zjadały olbrzymie ilości pożywienia, ale psy z mutacją POMC wcale nie jadłu więcej, niż te bez mutacji. To wskazywało, że najadają się podobną ilością pożywienia. Następnie, innego dnia, psy otrzymały standardowe śniadanie. Dokładnie trzy godziny później przed zwierzętami położono kiełbasę zamknięta w przezroczystym plastikowym pojemniku z otworami. Psy widziały i czuły smakołyk, ale nie mogły go zjeść. Naukowcy zauważyli, że zwierzęta z mutacją POMC znacznie bardziej intensywnie próbowały zdobyć kiełbasę, co wskazuje, że odczuwały większy głód. W ramach trzeciego eksperymentu psy spały w specjalnych pomieszczeniach, gdzie wykonywano pomiary wydychanych przez nie gazów. Na tej podstawie badacze stwierdzili, że zwierzęta z mutacją POMC spalają w czasie odpoczynku 25% mniej kalorii, niż te bez mutacji. Mutacja genu POMC w podobny sposób wpływa na mózg ludzi i psów. W psim mózgu blokuje ona produkcję dwóch hormonów: β-MSH, odpowiedzialnego za zmniejszenie łaknienia oraz powiązanej z głodem beta-endorfiny. Nie zakłóca natomiast produkcji α-MSH, odpowiedzialnego m.in. za zdobywanie pożywienia oraz homeostazę energetyczną. Przeprowadzone właśnie badania laboratoryjne wykazały, że β-MSH i beta-endorfiny decydują o odczuwaniu głodu i zużyciu energii, a ich rola jest niezależna od obecności α-MSH. To przeczy wynikom uzyskanych na szczurach, na podstawie których wyciągnięto wniosek, że u ludzi otyłość spowodowana mutacją w POMC ma miejsce tylko przy braku α-MSH. Szczury nie wytwarzają β-MSH, natomiast organizmy ludzi i psów wytwarzają zarówno α- jak i β-MSH. To, co zaobserwowano zgadza się z doniesieniami o ekstremalnie silnym uczuciu głodu, jakie odczuwają osoby z mutacją POMC. Osoby takie zwykle są otyłe już w młodym wieku i cierpią na wiele problemów związanych z otyłością. « powrót do artykułu
-
Uruchomiona właśnie platforma crowdsourcingowa ma za zadanie uratować przed zagładą wyjątkowy język – pontyjski, zwany przez jego użytkowników ρωμαικά, czyli „rzymski”. Przymiotnik „rzymski” nie jest tutaj przypadkowy, gdyż jest to język, który stanowi pomost pomiędzy czasami współczesnymi, a greką, którą mówiono w cesarstwie wschodniorzymskim, zwanym przez nas Cesarstwem Bizantyńskim. Jednak jest to nazwa stworzona przez historiografię nowożytną. Sami mieszkańcy tego państwa zwali je Cesarstwem Rzymian. I właśnie z jego mieszkańcami i językiem łączy nas język pontyjski. Platforma powstała pod kierunkiem profesor Ioanny Sitaridou z Wydziału języków współczesnych, średniowiecznych i lingwistyki Queen's College. Wniesie ona wkład w ogłoszoną przez ONZ Międzynarodową Dekadę Rdzennych Języków (2022–2032), której celem jest zwrócenie uwagi na trudną sytuację wielu rdzennych języków, ich zachowaniem promocję i rozpowszechnienie. Językiem pontyjskim posługuje się kilka tysięcy osób w tureckiej prowincji Trabzon na południu Morza Czarnego. To region, który w przeszłości należał do Cesarstwa Trapezuntu, istniejącego w latach 1206–1461. Rzeczywistą liczbą użytkowników jest jednak trudno ocenić, gdyż językiem tym posługuje się też diaspora, a w samej Turcji wyraźny jest proces porzucania pontyjskiego. Wielu użytkowników ma ponad 65 lat i coraz mniej młodych ludzi zna pontyjski. Na platformie Crowdsourcing Romeyka użytkownicy pontyjskiego mogą nagrać swoje wypowiedzi w tym języku. Pozyskiwanie próbek mowy to nowe narzędzie, które pomaga użytkownikom języka tworzyć bazę danych ich zagrożonego dziedzictwa, a naukowcom ułatwia dokumentowanie języka i zachęcanie użytkowników do docenienie swojego dziedzictwa lingwistycznego. Jednocześnie powstaje żywy pomnik języka, mówi profesor Sitaridou, która bada język pontyjski od 16 lat. Uruchomienie platformy zbiegło się z ogłoszeniem przez Sitaridou ważnych odkryć dotyczących pontyjskiego. Uczona poinformowała, że język ten pochodzi od greki hellenistycznej, a nie średniowiecznej, co czyni go odmiennym od pozostałych dialektów współczesnej greki. Język pontyjski to raczej siostra, a nie córka, greki nowożytnej, mówi uczona. O tym, jak ważna jest nowa platforma, niech świadczy fakt, że w ciągu ostatnich 150 lat jedynie 4 naukowców zbierało w Trabzonie dane dotyczące pontyjskiego. Profesor Sitaridou zgromadziła największą bazę nagrań audio i wideo. Współpracując z lokalnymi społecznościami, głównie z kobietami – bo to przede wszystkim one są nosicielkami tego języka – zebrała ponad 29 gigabajtów informacji i jest autorką 21 artykułów opublikowanych w recenzowanych pismach naukowych. Kluczowym elementem pracy Sitaridou są badania bezokolicznika w języku pontyjskim. Wszystkie inne współczesne dialekty greki przestały używać bezokolicznika występującego samodzielnie, w taki sposób, w jaki używano go w starożytnej grece. Jest on używany wraz ze słowem posiłkowym. Uczona udowodniła w ten sposób, że pontyjski przechował bezokolicznik i jego funkcje pochodzące z greki okresu hellenistycznego. We wszystkich współczesnych dialektach greki samodzielny bezokolicznik zniknął w średniowieczu. Greka zaczęła rozprzestrzeniać się wokół Morza Czarnego w VI wieku p.n.e. Jonowie z Attyki założyli na zachodnim wybrzeżu dzisiejszej Turcji Milet, z kolei koloniści z Miletu założyli na wybrzeżu Morza Czarnego Synopę, a jej mieszkańcy skolonizowali Trapezunt. Pont, czyli południowo-wschodnie wybrzeża Morza Czarnego stały się ważnym centrum języka greckiego. Podboje Aleksandra Wielkiego doprowadziły do utworzenia drugiego centrum, w Kapadocji. Jednak najważniejszym zjawiskiem dla rozszerzenia zasięgu greki stała się chrystianizacja. Mieszkańcy Pontu byli jednymi z pierwszych, którzy przyjęli chrześcijaństwo, są wspomniani w Nowym Testamencie. W 1461 roku Cesarstwo Trapezuntu zostało podbite przez Imperium Osmańskie. Konwersja na islam w Azji Mniejszej zwykle wiązała się z przejściem na język turecki. Jednak mieszkańcy dolin pozostali przy języku pontyjskim. A z powodu islamizacji zachowali niektóre cechy języka starożytnego, podczas gdy greckie społeczności, które pozostały przy chrześcijaństwie, zaczęły używać współczesnej greki. W dużej mierze przyczynił się do tego rozwój szkolnictwa w XIX i XX wieku, wyjaśnia profesor Sitaridou. Niedawno uczona rozpoczęła prace językoznawcze w okręgu Tonya, położonym na zachodzie prowincji Trabzon. Tam nigdy nie dotarł żaden badacz. Sitaridou odnotowała istnienie znaczących różnic gramatycznych wśród mieszkańców poszczególnych dolin. To wskazuje na różny przebieg islamizacji tych terenów. Wkrótce ukaże się jej praca, w której pani profesor argumentuje, że składnia zdań podrzędnych i przeczących w Tonya rozwijała się wedle innego wzorca niż w okręgu Çaykara ze wschodu prowincji Trabzon. W 1923 roku doszło do wymiany ludności pomiędzy Grecją a Turcją. Z Turcji wysiedlono chrześcijan mówiących językiem pontyjskim, pozostali tylko muzułmańscy użytkownicy tego języka. Dwie oddzielne grupy, ze wschodu i zachodu Trabzonu, które do niedawna nie miały pojęcia i swoim istnieniu. Sytuację użytkowników języka pontyjskiego dodatkowo utrudnia fakt, że niechętnie na nich patrzą zarówno nacjonaliści tureccy, jak i greccy. Dla tureckich nacjonalistów posługiwanie się w ich kraju innym językiem niż turecki jest sprzeczne z przynależnością narodową. Dla nacjonalistów greckich język pontyjski jest „zanieczyszczony” i sprzeczny z ideologią jednego języka greckiego używanego nieprzerwanie od starożytności. « powrót do artykułu
-
W centrum odległej galaktyki nagle rozbłysła supermasywna czarna dziura i okazało się, że ma ona „czkawkę”. To pierwsze znane zjawisko tego typu. Członkowie międzynarodowego zespołu badawczego uważają, że najbardziej prawdopodobnym wyjaśnieniem tego zjawiska jest obecność mniejszej czarnej dziury, która krąży wokół supermasywnego towarzysza, wyrzucając do 8,5 doby materiał z jego dysku akrecyjnego. Taka hipoteza to wyzwanie dla dotychczasowych poglądów na dyski akrecyjne czarnych dziur, które są postrzegane jako dość jednolite skupiska materiału. Nowe badania sugerują, że mogą one być zróżnicowane i zawierać inne czarne dziury czy nawet gwiazdy. Sądziliśmy, że sporo wiemy o czarnych dziurach, ale to pokazuje, że jeszcze wiele musimy się nauczyć. Uważamy, że istnieją inne podobne systemy, potrzebujemy po prostu więcej danych, by je znaleźć, stwierdza Dheeraj Pasham z Kavli Institute for Astrophysics and Space Research. Odkrycia niezwykłego podwójnego układu czarnych dziur dokonano za pomocą ASAS-SN (All Sky Automated Survey for SuperNovae). To zespół 20 automatycznych teleskopów rozmieszczonych na obu półkulach, które codziennie dokonują przeglądu nieboskłonu w poszukiwaniu supernowych i innych przemijających zjawisk. W grudniu 2020 roku teleskopy zarejestrowały rozbłysk w galaktyce oddalonej o 800 milionów lat świetlnych. Galaktyka nagle pojaśniała 1000-krotnie. A stało się to w regionie nieboskłonu, który dotychczas wydawał się dość ciemny i spokojny. Informacja o rozbłysku została automatycznie rozesłana do astronomów i zobaczył ją Pasham. Uczony postanowił przyjrzeć się temu zjawisku za pomocą teleskopu NICER (Neutron star Interior Composition Explorer), umieszczonego na Międzynarodowej Stacji Kosmicznej. NICER monitoruje nieboskłon w poszukiwaniu rozbłysków w paśmie promieniowania rentgenowskiego. Zjawiska takie mogą świadczyć o aktywności gwiazd neutronowych czy czarnych dziur. Był w tym wszystkim łut szczęścia, gdyż powoli dobiegał końca roczny okres, w którym Pasham miał pozwolenie na kierowanie NICAR na wybrane przez siebie obiekty. Mogłem użyć tego teleskopu, albo stracić okazję na obserwację. Okazało się, że to mój najszczęśliwszy zawodowy przypadek, mówi uczony. NICER obserwował odległą galaktykę przez cztery miesiące, zanim jej jasność wróciła do normy. Gdy uczony bliżej przyjrzał się danym zauważył, że w bardzo wąskim zakresie promieniowania rentgenowskiego co 8,5 doby pojawiają się niewielkie spadki jasności. Wzorzec był podobny do tego, co można zaobserwować, gdy planeta przechodzi na tle gwiazdy, na krótko blokując część jej światła. Jednak żadna gwiazda nie byłaby w stanie zablokować rozbłysku całej galaktyki. Nie wiedziałem co to oznacza. Ten wzorzec nie pasował do niczego, co wiedzieliśmy o takich systemach, mówi Pasham. W końcu uczony trafił na artykuł opublikowany niedawno przez fizyków-teoretyków z Czech. Pisali oni, że teoretycznie jest możliwe, by wokół supermasywnej czarnej dziury w centrum galaktyki krążyła druga, znacznie mniejsza czarna dziura. Czescy uczeni stwierdzali, że taka czarna dziura okresowo przebijałaby się przez dysk akrecyjny większej towarzyszki, doprowadzając do rozrzucenia gazu. Potężne pola magnetyczne na południe i północ czarnej dziury powodowałyby, że gaz ten byłby kierowany w górę i w dół od dysku akrecyjnego. Za każdym razem, gdy mniejsza czarna dziura przebijałaby dysk akrecyjny, pojawiałby się strumień gazu. Gdyby zaś ten strumień był skierowany w stronę obserwującego teleskopu, to całe zjawisko wyglądałoby jak okresowe spadki jasności galaktyki – stwierdzali teoretycy z Czech. Byłem niesamowicie podekscytowany ich teorią. Od razu napisałem do nich maila z informacją, że zaobserwowałem to, co opisali, wspomina Pasham. Naukowiec wspólnie z czeskimi kolegami przeprowadzili symulacje z wykorzystaniem danych z NICER i okazało się, że wszystko do siebie pasuje. Symulacje wykazały, że badany przez nich system składa się z galaktyki, której supermasywna centralna czarna dziura ma masę około 50 milionów razy większą niż masa Słońca. Jest więc około 12 razy bardziej masywna niż czarna dziura w centrum Drogi Mlecznej. Wokół tej potężnej czarnej dziury może znajdować się rozproszony słabo widoczny dysk akrecyjny oraz mniejsza czarna dziura o masie od 100 do 10 000 mas Słońca. W grudniu 2020 roku jakiś trzeci obiekt, prawdopodobnie gwiazda, znalazł się zbyt blisko supermasywnej czarnej dziury i został rozerwany przez siły pływowe. Wywołany tym zjawiskiem nagły dopływ materiału do dysku akrecyjnego spowodował gwałtowne pojaśnienie całej galaktyki. Przez cztery miesiące supermasywna czarna dziura wchłaniała dodatkową materię, a mniejsza czarna dziura kontynuowała swą podróż wokół większego towarzysza. Regularnie wyrzucała przy tym materiał dysku akrecyjnego, a jego strumień był skierowany na wprost teleskopu NICER. Mamy tutaj wspaniały przykład, jak szczątki ze zniszczonej gwiazdy mogą rozświetlić wnętrze jądra galaktyki, które w innym przypadku pozostałoby dla nas ciemne. To tak, jakbyśmy wpuścili fluorescencyjny barwnik, by odnaleźć wyciek w rurociągu, mówi Richard Saxton z European Space Astronomy Centre, który nie był zaangażowany w badania. To pokazuje nam, że układy podwójne czarnych dziur mogą powszechnie występować w jądrach galaktyk. Ich poszukiwanie może być zadaniem przyszłych wykrywaczy fal grawitacyjnych, dodaje uczony. « powrót do artykułu
-
Francuska Komisja Energii Atomowej i Energii Alternatywnych (CEA) zaprezentowała pierwsze skany ludzkiego mózgu wykonane za pomocą najpotężniejszej na świecie maszyny do rezonansu magnetycznego. Iseult MRI wykorzystuje pole magnetyczne o natężeniu 11,4 tesli. Maszyny używane w szpitalach generują pole o natężeniu 1,5 lub 3 tesli. Nowy skaner pozwala bardzo szybko uzyskać obraz o niezwykle dużej rozdzielczości. Dość wspomnieć, że w czasie krótszym niż 4 minuty Iseult MRI wykonuje obrazy o rozdzielczości 0,2 mm i grubości warstwy 1 mm. Standardowe MRI musiałyby pracować przez kilka godzin, by uzyskać tak szczegółowy obraz, wykonanie więc takiego skanowania u pacjenta jest praktycznie niemożliwe. Uzyskanie tak dużej rozdzielczości pozwoli na zdobycie niedostępnych dotychczas informacji o działaniu mózgu, zrozumienie w jaki sposób koduje on informacje czy poszukiwanie neuronalnych sygnatur stanu świadomości. Olbrzymia rozdzielczość nowej maszyny będzie miała wpływ na badania medyczne. Szczegółowe informacje, uzyskane dzięki nowemu skanerowi, wspomogą badania nad chorobami Parkinsona czy Alzheimera. Ponadto Iseult MRI ułatwi wykrywanie w mózgu sygnałów pochodzących z niektórych związków chemicznych, które trudno jest wykryć przy pomocy pola magnetycznego o niższym natężeniu. Mowa tutaj przede wszystkim o licie, który jest wykorzystywany do leczenia zaburzeń dwubiegunowych. Lepsza ocena umiejscowienia tego pierwiastka w mózgu umożliwi lepsze określenie efektywności leczenia. Możliwe będzie też dokładniejsze badanie wpływu molekuł zaangażowanych w metabolizm mózgu, takich jak glukoza czy glutaminianu, a to z kolei pozwoli badać wiele różnych chorób, od nowotworów po choroby neurodegeneracyjne. Dzięki projektowi Iseult otwierają się przed nami całkowicie nowe możliwości. Chcemy je wykorzystać. Wciąż konieczne są kolejne lata prac badawczo-rozwojowych nad metodami gromadzenia danych, musimy się upewnić, że uzyskujemy dane o najwyższej możliwej jakości. W latach 2026–2030 skupimy się na badaniu chorób neurodegeneracyjnych oraz chorób związanych z psychiatrią, jak schizofrenia i zaburzenia dwubiegunowe. Nauki poznawcze również będą w centrum naszych zainteresowań, zapowiada Nicolas Boulant, dyrektor ds. badań w CEA, który kieruje projektem Iseult. Iseult MRI to efekt ponad 20 lat prac badawczo-rozwojowych. Maszyna waży 132 tony, ma 5 metrów długości i 5 metrów szerokości, wykorzystuje 182 kilometry nadprzewodzących kabli, a przez cewkę przepływa prąd o natężeniu 1500 amperów. Wykorzystywany w skanerze magnes został schłodzony do temperatury -271,35 stopni Celsjusza za pomocą 7500 litrów ciekłego helu. « powrót do artykułu
-
Mikroplastik zagraża stanowiskom archeologicznym?
KopalniaWiedzy.pl dodał temat w dziale Humanistyka
Pozostawianie świadectw archeologicznych in situ to preferowana metoda zachowywania znalezisk dla przyszłych pokoleń, które mogłyby badać je doskonalszymi metodami. Jednak odkrycie dokonane przez naukowców z University of York każe postawić pod znakiem zapytania jej wartość. Okazuje się bowiem, że zanieczyszczenie mikroplastikiem jest tak wielkie, iż jego fragmenty można znaleźć w próbkach archeologicznych pobranych nawet z głębokości 7 metrów. Nie można wykluczyć, że migrujące fragmenty plastiku są w stanie zniszczyć stanowiska archeologiczne. Coś, co dotychczas uznawaliśmy za dziewicze depozyty archeologiczne, gotowe do badań, są zanieczyszczone plastikiem. Dotyczy to również próbek pobranych i przechowywanych od końca lat 80. Przyzwyczailiśmy się już do plastiku w rzekach i oceanach. Tutaj jednak widzimy, że nasze dziedzictwo archeologiczne również zawiera te toksyczne elementy. Spróbujemy się dowiedzieć, na ile zagrażają one stanowiskom archeologicznym, mówi profesor John Schofield z Wydziału Archologii Univeristy of York. To właśnie ta uczelnia, we współpracy z University of Hull i York Archeology przeprowadziła badania, których wyniki opublikowano w Science of the Total Environment. David Jennings, dyrektor York Archeology, dodaje, że myślimy o mikroplastiku jako o współczesnym zjawisku, gdyż tak naprawdę głośno mówi się o nim od około 20 lat, jednak profesor Richard Thompson ujawnił w 2004 roku, że mikroplastik powszechnie pojawił się w oceanach w latach 60., po wielkim powojennym boomie produkcji plastiku. Nowe badania pokazują zaś, że mikroplastik infiltruje glebę, w tym istotne stanowiska archeologiczne. Ich autorzy zidentyfikowali bowiem 16 różnych rodzajów mikroplastiku zarówno we współecznych, jak i archiwalnych próbkach archeologicznych. Jenning wyjaśnia, czego obawiają się autorzy badań. Nasze najlepiej zachowane stanowiska archeologiczne, na przykład stanowisko wikingów w Coppergate, przetrwały do naszych czasów, gdyż przez ponad 1000 lat były pełne wody i panowały tam warunki beztlenowe. Mikroplastik zmienia chemię gleby i może potencjalnie wprowadzać elementy, które spowodują rozkład materii organicznej. Jeśli tak się rzeczywiście dzieje, to zachowywanie stanowisk in situ nie jest już najlepszą metodą. Uczony dodaje, że badania wpływu mikroplastiku na stanowiska archeologiczne powinny stać się priorytetem, gdyż te wytworzone przez człowieka związki chemiczne mogą mieć wpływ na stanowiska archeologiczne. « powrót do artykułu -
W nocy z 24 na 25 marca 1944 roku, po niemal roku kopania tunelu, 76 więźniów różnych narodowości uciekło z obozu jenieckiego Stalag Luft III. Wszyscy, z wyjątkiem trzech, zostali schwytani i w ciągu tygodnia – na osobisty rozkaz Hitlera – zamordowano 50 z nich. Z czasem na kanwie tej historii powstał słynny film ze Steve'em McQuinnem. Pracownicy brytyjskich The National Archives odkryli właśnie dokument sugerujący, że uciekinierzy mogli zostać zdradzeni. Kapitan lotnictwa kartograf Desmond Plunkett był 13. z uciekinierów opuszczających tunel. Nikt nie chciał uciekać jako 13., więc Plunkett się zgłosił. Został złapany na granicy z Austrią i spędził osiem miesięcy w więzieniu gestapo, zanim przeniesiono go do Stalag Luft I. W The National Archives znaleziono właśnie jego zeznania, które złożył po uwolnieniu z obozu w maju 1945 roku. Jest dwóch ludzi... to ich działania przyniosły zgubę 50 zamordowanym jeńcom. Trzeba ich znaleźć. To na pewno rodowici Anglicy. Muszą być osądzeni za kolaborację z wrogiem, stwierdził Plunkett w kwestionariuszu, który wypełniał każdy uwolniony jeniec. Doktor William Butler, ekspert ds. wojskowości i dyrektor Zbiorów Współczesnych w The National Archives mówi, że gdy Plunkett został oswobodzony z obozu jenieckiego, trafił do szpitala z powodu zaburzeń psychicznych wywołanych przez pobyt w więzieniu gestapo. Pewne poszlaki wskazują, że obwiniał siebie o śmierć 50 kolegów, gdyż podczas przesłuchania przez gestapo mógł coś przypadkiem powiedzieć. Jednak inni więźniowie zapewnili Plunketta, że nie mógł być winny, gdyż jeńcy zostali zamordowani zanim jeszcze trafił w ręce niemieckiej tajnej policji. W filmie „Wielka ucieczka” na postaci Plunketta wzorowany jest kapitan Colin Blythe grany przez Donalda Plreasence'a. Blythe rysuje dla uciekinierów 2500 map. Pleasence stworzył swoją postać częściowo na własnych doświadczeniach. Był radiooperatorem w bombowcach RAF, został zestrzelony nad Francją w sierpniu 1944 roku i trafił do Stalag Luft I. « powrót do artykułu
-
Spokojnych Świąt Wielkanocnych. Dużo zdrowia, radości i odpoczynku. Ania, Jacek i Mariusz « powrót do artykułu
-
Darmowy VPN – Twój Osobisty Tunel Przez Cyfrowy Świat
KopalniaWiedzy.pl dodał temat w dziale Artykuły
Wyobraź sobie siebie jako badacza nieodkrytych krain, gdzie każdy krok w internecie to krok po cienkim lodzie nadciągających zagrożeń i cyberbezpieczeństwa. W tej podróży darmowy VPN służy jako twój osobisty tunel, mistrzowsko przeprowadzający cię przez niebezpieczeństwa cyfrowego świata, chroniąc cię przed łapczywymi spojrzeniami i zachowując twoją prywatność nietkniętą. Rozdział 1: Szyfrowanie – Magiczna Tarcza Przeciwko Cybersmokom Korzystanie z VPN można porównać do założenia niewidzialnej peleryny, pod którą ukryte są twoje dane osobowe. Jak magiczna tarcza chroniąca rycerza przed ogniem smoka, szyfrowanie danych VPN chroni twoje prywatne informacje przed cyberatakami. Pomyśl o każdym bicie i bajcie twojej cyfrowej komunikacji jak o wiadomości zamkniętej w magicznym kokonie, niedostępnym dla tych, którzy pragną poznać twoje sekrety. Rozdział 2: Podróż przez Granice – Omijanie Cyfrowych Barier VPN daje ci klucze do wszystkich drzwi do świata treści, pozwalając ci swobodnie przemieszczać się między krajami bez cyfrowych wiz. To jak posiadanie osobistego magicznego portalu, który natychmiast przenosi cię tam, gdzie chcesz być, niezależnie od geograficznych ograniczeń. Czy to dostęp do bibliotek serwisów streamingowych, czy czytanie materiałów ograniczonych w twoim kraju, darmowy VPN otwiera świat bez granic. Rozdział 3: Praktyczna Magia – Porady dla Początkujących Czarodziejów VPN Wybór niezawodnego VPN to jak wybór swojego pierwszego magicznego różdżki. Potrzebujesz solidnego narzędzia, które będzie ci służyć wiernie i prawdomównie. Szukaj usług z polityką zerowego rejestrowania, silnym szyfrowaniem i wysoką prędkością. I pamiętaj, najlepszą ochroną jest twoja wiedza i czujność. Zawsze bądź czujny wobec swojego cyfrowego życia. Podsumowanie: Twój Osobisty Szlak do Bezpiecznego Cyfrowego Świata Weź swoje VPN na swoje następne przygody w internecie. Niech będzie twym niezawodnym towarzyszem, chroniącym cię przed cyberzagrożeniami i poszerzającym horyzonty twojego cyfrowego świata. Razem z nim nie jesteś tylko badaczem internetu; stajesz się władcą swojej cyfrowej przyszłości, zdolnym podróżować przez cyberprzestrzeń z pewnością i bezpieczeństwem. « powrót do artykułu -
Realme – co to za firma i czy telefony Realme są dobre?
KopalniaWiedzy.pl dodał temat w dziale Artykuły
Realme to chińska marka smartfonów, która szybko zdobyła popularność, oferując innowacyjne technologie w przystępnych cenach. Chiński gigant dostarcza wysokiej jakości urządzenia, dzięki czemu cieszy się dobrą opinią użytkowników. Smartfony Realme, dostępne również w ofercie Play, łączą w sobie dwie kluczowe cechy. Oferują zarówno zaawansowane funkcje, jak i atrakcyjny design, stanowiąc idealny wybór dla osób szukających wydajnego telefonu bez nadszarpnięcia budżetu. Chcesz wiedzieć więcej o firmie i telefonach Realme? Zapraszamy do lektury artykułu. Spis Treści: Realme – chiński gigant na rynku smartfonów Czy telefony Realme cieszą się dobrą opinią? Smartfony Realme – innowacja w przystępnej cenie Realme – idealny wybór dla kogo? Realme, czyli marka warta uwagi Realme – chiński gigant na rynku smartfonów Marka Realme została założona w 2018 roku i szybko stała się jednym z czołowych producentów smartfonów w Chinach i na świecie. Jako część większej korporacji BBK Electronics, która posiada również takie marki jak OnePlus, Vivo, i Oppo, Realme ma możliwość korzystania z bogatego doświadczenia i innowacyjnych technologii. To właśnie dzięki temu oferuje użytkownikom wysokiej jakości smartfony. Co jeszcze wyróżniło firmę na tle innych? Przystępne ceny smartfonów, które jednocześnie oferowały wiele ciekawych i mocno zaawansowanych funkcjonalności. To idealne rozwiązanie dla młodych osób, które nie tylko chcą się wyróżniać ciekawym designem, ale także często mogą pozwolić sobie jedynie na budżetowe opcje. Realme to marka, która nieustannie się rozwija i zachęca do przetestowania urządzeń, które są innowacyjne, jakościowe i po prostu – tanie. Czy telefony Realme cieszą się dobrą opinią? Telefony Realme cieszą się bardzo pozytywnymi opiniami użytkowników na całym świecie. Zdobywają popularność i uznanie, prawdopodobnie m.in. ze względu na fakt koncentrowania się na młodych konsumentach i ich potrzebach. Oferują to, co najlepsze – innowacyjne rozwiązania i funkcje jak np. 5G, ekran AMOLED, a do tego ciekawy, oryginalny design. Wszystko to zazwyczaj można spotkać jedynie w droższych modelach. Dobra opinia wynika również z długotrwałych baterii, nowoczesnego i płynnie działającego systemu oraz dobrych aparatów. Smartfony Realme – innowacja w przystępnej cenie Smartfony Realme dowodzą temu, że zaawansowana technologia może być dostępna w przystępnej cenie. Marka ta oferuje szeroką gamę urządzeń, od modeli budżetowych po flagowe, każdy wyposażony w funkcje zarezerwowane dotąd dla droższych smartfonów. Realme wyróżnia stosowanie wysokiej jakości procesorów, które pochodzą od najlepszych producentów. W urządzeniach od tej marki znajdziemy zarówno procesory MediaTeka, jak i Snapdragon. Użyte modele są identyczne, jak we flagowych komórkach, które kosztują o wiele większe pieniądze. Tak jak wspomnieliśmy, Realme to również innowacyjny wyświetlacz. Ekran AMOLED to gwarancja wysokiej jakości obrazu i nasycenia kolorów. Można go spotkać w większości smartfonów tej marki, niezależnie od reszty podzespołów. Smartfony Realme są skierowane do młodej grupy odbiorców. Muszą więc charakteryzować się bardzo dobrym aparatem fotograficznym. Mimo że nie zawsze tak było, a producent musiał dojść do jakości na poziomie najlepszych marek, to na ten moment oferuje on główny aparat o matrycy 200 Mpix. Ogromną zaletą smartfonów Realme jest możliwość szybkiego ładowania urządzenia. Co ciekawe, marka pierwsza na rynku oferował możliwość ładowania aż 150 W. To funkcjonalność, która zdecydowanie przyda się młodym osobom korzystającym intensywnie z urządzeń tego typu zarówno do rozrywki, komunikacji, jak i nauki oraz pracy. Realme – idealny wybór dla kogo? Tak jak wspomnieliśmy, smartfony Realme to zaawansowane technologie, oryginalny design i przystępna cena. Przyciągają więc zarówno osoby młode, jak i starsze, którym zależy na dbaniu o budżet. Co ciekawe, smartfony Realme sprawdzą się też u osób, które pasjonują się fotografią mobilną, ponieważ producent oferuje w swoich modelach aparaty o wysokiej rozdzielczości. Natomiast funkcje szybkiego ładowania sprawiają, że z urządzeń tej marki korzystają chętnie także osoby, będące w ciągłym ruchu. Takie, które nie mogą i nie chcą tracić czasu na częste i długie ładowanie smartfona. Dodatkowo modele Realme z wysokiej jakości wyświetlaczami i potężnymi procesorami, docenią także gracze. Urządzenia tak wyposażone zapewniają płynną rozgrywkę bez opóźnień. Realme, czyli marka warta uwagi Realme to marka, która zdecydowanie zasługuje na uwagę! Innowacyjne podejście do produkcji smartfonów sprawia, że wiele osób chce przetestować urządzenia od tego producenta. Jest to ciekawa przeciwwaga dla flagowców, które mimo bardzo dobrych parametrów, charakteryzują się często wręcz abstrakcyjnie wysokimi cenami. « powrót do artykułu -
Po ponad 30 latach archeologom z National Park Services udało się zidentyfikować okręt wojenny, którego szczątki odkryto w 1993 roku na terenie Dry Tortugas National Park. Okazał się nim XVIII-wieczny brytyjski HMS Tyger. Ta zwodowana w 1647 roku fregata o 50 działach zatonęła w 1742 roku, gdy osiadła na rafie na Dry Tortugas. Wydarzenie miało miejsce podczas wojny o ucho Jenkinsa, jaka toczyła się w latach 1739–1748 w Ameryce Północnej pomiędzy Wielką Brytanią a Hiszpanią. Załoga HMS Tygera podjęła się heroicznej walki o przetrwanie. Po tym, jak okręt osiadł na rafie, jego niemal 300-osobowa załoga spędziła 66 dni na niewielkiej bezludnej wysepce Garden Key. Nie było to łatwe. Człon „Dry” pochodzi bowiem od braku wody pitnej na wyspach. Brytyjscy marynarze, korzystając ze szczątków swojego okrętu, wznieśli na Garden Key pierwsze fortyfikacje. Powstały one 100 lat przed znajdującym się tam obecnie Fort Jefferson. Marynarze poszukiwali pomocy, zbierali zapasy z okrętu i próbowali lokalizować wrogie hiszpańskie okręty. Po nieudanym ataku na pewną hiszpańską jednostkę podpalili pozostałości po HMS Tyger – chcieli w ten sposób upewnić się, że działa nie wpadną w ręce wroga – i na zbudowanych ze szczątków Tygera łodziach ruszyli w kierunku Port Royal na Jamajce. Mieli do przebycia 1125 kilometrów otwartych wód oceanicznych. To właśnie dzięki działom udało się ostatecznie zidentyfikować HMS Tyger. Prowadzący pod wodą prace archeolodzy znaleźli pięć dział, które spoczęły na dnie morza w odległości około 450 metrów od miejsca zatonięcia okrętu. Najprawdopodobniej działa wypadły za burtę, gdy jednostka uderzyła w rafę. Z zachowanej książki pokładowej wiemy, że gdy marynarze postanowili zatopić okręt, najpierw uwolnili go z rafy, by pływał, i dopiero wówczas podłożyli ogień. Znaleziska archeologiczne są ekscytujące, a w tym przypadku mogliśmy powiązać znalezisko z zachowaną relacją na piśmie. Pozwala nam to opowiedzieć historię ludzi, którzy byli tu przed nami. Ta historia to przykład wytrzymałości i przetrwania, mówi dyrektor Dry Tortugas National Park James Crutchfield. « powrót do artykułu
-
Odkryj kluczowe czynniki, które należy wziąć pod uwagę podczas wyboru odpowiedniego hurtowego dostawcy kosmetyków. Zapewnij sobie udany wybór i zbuduj trwałe relacje z zaufanym partnerem biznesowym !RCOL Jak wybrać odpowiedniego hurtowego dostawcę kosmetyków: Kluczowe czynniki do rozważenia Wybór dostawcy kosmetyków hurtowych odnosi się do decyzji przedsiębiorstwa lub sprzedawcy detalicznego dotyczącej wyboru dostawcy, który zapewni im kosmetyki w dużych ilościach. To kluczowy krok dla biznesu kosmetycznego, ponieważ ma wpływ na jakość produktów, ceny hurtowe, terminy dostaw hurtowych kosmetyków oraz relacje biznesowe. Wybór odpowiedniego dostawcy może przyczynić się do sukcesu firmy poprzez zapewnienie wysokiej jakości produktów w konkurencyjnych cenach i zadowalającym poziomie obsługi klienta. Lotana to najwygodniejsza hurtownia kosmetyczna, oferująca duży wybór produktów w niskich cenach oraz możliwość łatwego złożenia zamówienia i dokonania zakupu. Kluczowe czynniki do rozważenia Zakres oferowanych produktów i ich jakość to kluczowe czynniki wyboru dostawcy kosmetyków. Przedsiębiorstwo powinno upewnić się, że hurtowy dostawca kosmetyków oferuje szeroki wybór produktów, które odpowiadają potrzebom ich klientów. Jakość produktów kosmetycznych hurtowych jest również istotna, ponieważ wpływa na reputację firmy i zadowolenie klientów. Przed dokonaniem wyboru dostawcy, ważne jest przeprowadzenie analizy próbek produktów oraz zapoznanie się z opiniami innych klientów, aby upewnić się, że oferowane produkty spełniają ustalone standardy jakości. Ocena potencjalnego dostawcy Przed podjęciem decyzji dotyczącej wyboru hurtowego dostawcy kosmetyków, kluczowe jest dokładne przeanalizowanie własnych potrzeb i oczekiwań biznesowych. Firmy powinny zdefiniować rodzaje kosmetyków, których potrzebują, ilości, jakie chcą zakupić, oraz oczekiwana cena hurtowa kosmetyków i poziom jakości. Ważne jest również uwzględnienie specyficznych preferencji klientów oraz trendów rynkowych. Przeprowadzenie tej analizy pomoże w skoncentrowaniu się na poszukiwaniu dostawcy, który najlepiej odpowiada tym potrzebom i oczekiwaniom. Badanie reputacji i doświadczenia dostawcy kosmetyków jest kluczowym krokiem przy wyborze hurtowego dostawcy. Firmy powinny przeprowadzić dokładne badania, aby poznać opinie innych klientów oraz ocenić doświadczenie dostawcy na rynku. Można to zrobić poprzez czytanie recenzji, analizę preferencji, sprawdzenie ich historii biznesowej oraz ocenę ich wiarygodności i solidności. Dobry dostawca będzie miał pozytywne opinie klientów, długoletnie doświadczenie na rynku i będzie gotowy udzielić wszelkich niezbędnych informacji oraz wsparcia w zakres produktów kosmetycznych hurtowych i usług. Wskazówki praktyczne Ocena dostawców kosmetyków może być oparta na różnych kryteriach. Oto lista potencjalnych kryteriów, które warto uwzględnić: Jakość produktów: Sprawdzenie, czy dostarczane produkty lub świadczone usługi spełniają określone standardy jakościowe i oczekiwania klientów. Zgodność z wymaganiami regulacyjnymi: Upewnienie się, że dostawca przestrzega wszystkich wymogów prawnych i regulacji dotyczących branży oraz zapewnia odpowiednie certyfikaty i dokumentację. Cena: Analiza cenowa wartości produktu oferowana przez dostawcę w porównaniu do innych dostawców na rynku, przy zachowaniu równowagi między ceną a jakością. Logistyka dostawy kosmetyków hurtowych: Ocena możliwości dostawcy w zapewnieniu wymaganej infrastruktury technicznej i logistycznej, takiej jak transport, składowanie i obsługa zamówień. Reputacja i referencje: Sprawdzenie opinii innych klientów oraz referencji dostawcy, aby ocenić jego reputację i wiarygodność na rynku. Warunki płatności i dostawy kosmetyków hurtowych: Przejrzyste ustalenie warunków umowy handlowej, w tym cen, terminów płatności, warunków dostawy i innych kluczowych kwestii, oraz zdolność do negocjowania korzystnych warunków dla firmy. Analiza kosztów i korzyści jest kluczowym elementem przy wyborze hurtowego dostawcy kosmetyków. Obejmuje ona porównanie kosztów związanych z zakupem od danego dostawcy oraz korzyści, jakie firma może uzyskać z tego wyboru. Oto kilka aspektów do uwzględnienia podczas przeprowadzania tej analizy: Koszty zakupu. Koszty operacyjne. Elastyczność i terminowość dostaw. Rabaty i promocje. Relacje biznesowe. Zrównoważone praktyki. Zakończenie Przy wyborze hurtowego dostawcy kosmetyków kluczowymi czynnikami są jakość produktów, terminowość dostaw, konkurencyjne ceny, obsługa klienta w hurtowej sprzedaży kosmetyków oraz zgodność z regulacjami branżowymi. Wybór odpowiedniego dostawcy kosmetyków może otworzyć wiele perspektyw rozwoju współpracy. Oto kilka możliwych perspektyw: Rozszerzenie asortymentu: Możliwość poszerzenia oferty o nowe produkty kosmetyczne, co może przyciągnąć nowych klientów i zwiększyć lojalność dotychczasowych. Poprawa jakości: Dostęp do wyższej jakości produktów może pozytywnie wpłynąć na postrzeganie marki przez klientów oraz zwiększyć ich zaufanie do oferowanych produktów. Oszczędność czasu i zasobów: Współpraca z dostawcą o solidnej reputacji i sprawdzonych praktykach może przyczynić się do redukcji czasu i zasobów poświęconych na poszukiwanie nowych dostawców i rozwiązywanie problemów związanych z jakością czy terminowością dostaw. Negocjacje cenowe: Długoterminowa współpraca z odpowiednim dostawcą może umożliwić negocjacje korzystniejszych warunków cenowych, co przyczyni się do zwiększenia rentowności biznesu. Partnerstwo strategiczne: Możliwość nawiązania partnerskiej relacji z dostawcą może otworzyć drzwi do wspólnych inicjatyw i strategii rozwoju hurtowej sprzedaży kosmetyków, co może przynieść dodatkowe korzyści dla obu stron. Współpraca z odpowiednim dostawca kosmetyków premium hurtowych może otworzyć wiele możliwości rozwoju biznesu i umocnić pozycję firmy na rynku kosmetycznym. Zalecamy również przeczytanie: Jak wybrać odpowiednie produkty Daeng Gi Meo Ri dla swojego rodzaju włosów « powrót do artykułu
-
Wśród XIX-wiecznych listów z Kolekcji Papierów Wartościowych brytyjskich Archiwów Narodowych (TNA) odkryto doskonale zachowany 217-letni sweter wykonany wg tradycyjnego farerskiego wzoru. Miała go otrzymać kobieta z Danii, ale przesyłka nigdy nie dotarła do celu, bo statek, który ją przewoził, został zatrzymany przez Royal Navy podczas bitwy pod Kopenhagą (1807). Nadawcą był stolarz Niels C. Winther z Thorshavn, a odbiorcą P. Ladsen z Kopenhagi. Do paczki dodano liścik w języku duńskim: moja żona łączy pozdrowienia, dziękując za ryż do puddingu. Przesyła pańskiej narzeczonej ten sweter. Ma nadzieję, że jej tym nie urazi. Mimo że dopasowany w talii ubiór z dekoltem w serek i rękawami 3/4 przypomina sweter stanowiący część kobiecego narodowego stroju farerskiego, zawartość przesyłki opisano jako sweter (ubiór) do spania. Współpracująca z TNA Margretha Nónklett z Narodowego Muzeum Wysp Owczych (Tjóðsavn Føroya) podkreśla, że to ekscytujące odkrycie. Zachowało się niewiele takich egzemplarzy, w dodatku ani jednego nie wykonano wg tego wzoru. Sweter zrobiono w domu z ręcznie farbowanej wełny. Paczka Winthera wypłynęła z Thorshavn 20 sierpnia 1807 r. na pokładzie statku towarowego Anne Marie. Kapitan Jurgen S. Toxsvaerd nie miał pojęcia o rozpoczęciu operacji sił brytyjskich przeciw stolicy Danii. Drugiego września u wybrzeży Norwegii Anne Marie została zaatakowana przez HMS Defence. Brytyjska załoga wdarła się na pokład statku handlowego. Toxsvaerd i jego podwładni dostali się do niewoli, a ładunek i pocztę zarekwirowano. Po uwolnieniu w Kopenhadze Toxsvaerd ujawnił, że transportował 49 tys. par wełnianych pończoch, 8 ton suszonych ryb, 100 pudełek świec, 250 beczek łoju, 19 beczek tranu oraz 10 beczek piór. W jednym z listów przewożonych na Anne Marie w workach pocztowych odkryto banknoty (rigsdalery). W ich pliku znajdowało się 18 srebrnych monet, w tym szylingi z okresu panowania Fryderyka III Oldenburga. W komunikacie prasowym TNA napisano, że 2 inne paczki zawierały ziarno. Specjaliści otworzyli jedną z nich i przekonali się, że to jęczmień zwracany nadawcy ze względu na złą jakość. W notatce narzekano, że [spośród 416 odebranych beczek] w 399 jęczmień był w jakimś stopniu uszkodzony, a 25 beczek było w tak złym stanie, że nie dało się ich sprzedać. Drugą paczkę pozostawiono w oryginalnym stanie. Kolejna przesyłka zawierała damskie wełniane kolanówki. Inna paczuszka kryła zaś w sobie próbkę zielonej tkaniny pończoszniczej. W innym z listów znaleziono drobne próbki tkaniny. Warto dodać, że w XVI wieku królowie Danii ustanowili własny monopol na handel z Wyspami Owczymi. Często jednak przekazywali to prawo prywatnym przedsiębiorcom. W 1709 roku król Fryderyk IV ostatecznie przejął kontrolę nad monopolem od rodziny Gabel, której został on udzielony w 1662 roku. Królewski monopol działał za pośrednictwem jedynego sklepu na Wyspach. W 1830 roku otwarto trzy kolejne sklepy, które należały bądź były pod kontrolą Duńskiego Królewskiego Monopolu Handlowego. Królewski monopol na handel z Wyspami Owczymi został oficjalnie zniesiony w 1856 roku. Statek Anne Marie był jednym z 2, które na początku XIX w. wykorzystywano do przewozu towarów i poczty. Przesyłka ze swetrem została otwarta w ramach Prize Papers Project. Jego celem jest skatalogowanie i digitalizacja dokumentów oraz przedmiotów skonfiskowanych wyrokiem Wysokiego Sądu Admiralicji w latach 1652–1815. Sąd ten decydował m.in. o tym, czy statki i okręty przejęte przez Royal Navy w czasie wojny zostały zajęte zgodnie z prawem i określał, co ma się stać z zajętą jednostką oraz jej ładunkiem. Sąd ten pojawił się jako oddzielny organ sądownictwa angielskiego prawdopodobnie w 1340 roku, po bitwie pod Sluys. Początkowo zajmował się kwestiami piractwa oraz łupów wojennych, z czasem jego kompetencje zostały rozszerzone. Praktyka zajmowania cudzych statków i okrętów była szeroko rozpowszechniona szczególnie w XVII i XVIII wieku. W przeciwieństwie do piractwa, była ściśle regulowana. Zasady, przestrzegane przez wszystkie strony, określały, co i w jakich okolicznościach można legalnie zająć. Statek czy okręt mógł zostać zdobyty tylko wówczas, gdy należał do wrogiego państwa lub wspierał jego wysiłki wojenne. A ostateczną decyzję odnośnie do legalności zajęcia jednostki podejmowały sądy. Marynarze musieli składać przysięgę i ściśle przestrzegać procedur mówiących, że wszystko, co znaleziono na pokładzie zajętej jednostki, zostanie zachowane, by mogło zostać przedstawione w sądzie jako dowód. Wszelkie dokumenty z zajęć uznanych za legalne były następnie składane w archiwach brytyjskiej Admiralicji, wraz z odpowiednimi dokumentami sądowymi. Jak ujawniono na witrynie Prize Papers Project, dokumenty z ponad 35 000 zdobytych statków i okrętów są przechowywane w ponad 4000 skrzyń. Jest wśród nich co najmniej 160 tys. niedostarczonych listów, z których wiele pozostało nieotwartych do dnia dzisiejszego. Znajdziemy tam też książki, dokumenty sądowe, handlowe, kolonialne, morskie czy notatki. Dotychczas badacze zidentyfikowali 19 języków, w których je spisano. To ogromne bogactwo informacji o przeszłości, zatrzymane w czasie archiwum życia codziennego, działań zbrojnych i przedsięwzięć gospodarczych. Projekt digitalizacji tego imponującego archiwum jest prowadzony przez brytyjskie The National Archives i niemiecki Uniwersytet w Oldenburgu, a współfinansuje go Akademia Nauk w Getyndze. Ma on potrwać 20 lat. W tym czasie zostanie przeprowadzona digitalizacja 3,5 mln dokumentów oraz różnych drobnych przedmiotów, m.in. kluczy, kart do gry, biżuterii czy tekstyliów. « powrót do artykułu
-
- sweter
- tradycyjny wzór farerski
- (i 6 więcej)
-
Koordynacja czasu na skalę globalną jest czymś niezbędnym w coraz bardziej zinformatyzowanym świecie. W ramach tego procesu dodawana jest sekunda przestępna i jedna z minut składa się z 61 sekund. Jedna sekunda to pozornie niewiele, jednak wyobraźmy sobie brak koordynacji o tę sekundę w sieciach komputerowych. Jeśli nie zostaną one skoordynowane i np. czas komputera sklepu internetowego będzie się różnił od czasu komputera banku, to klikając „zamów” wygenerujemy dwa zamówienia o różnym czasie, a nie jedno. Jednak manipulowanie czasem zawsze niesie ze sobą pewne ryzyko. Gdy w 2012 roku na świecie dodano sekundę przestępną, doszło do awarii Mozilli, Reddita, Foursquare'a, Yelpa, LinkedIna i StumbleUpon. Pojawiły się problemy z systemem operacyjnym Linux oraz z programami napisanymi w Javie. Obecnie czas mierzymy zegarami atomowymi, których działanie opiera się na drganiach atomów cezu. Sekunda definiowana jest jako 9 192 631 770 drgnięć, a liczba taka została wybrana z uwzględnieniem tradycyjnego pomiaru czasu opierającego się na ruchu obrotowym Ziemi. Pomiar ten zdefiniował dobę jako złożoną z 84 600 sekund. Istnieją jednak różnice pomiędzy czasem ziemskim a czasem mierzonym za pomocą zegarów atomowych. Stąd konieczność wprowadzania korekt. Pomiędzy rokiem 1970 a 2020 średnia długość ziemskiej doby była o 1–2 milisekund większa niż 86 400 sekund. To oznaczało, że ruch obrotowy Ziemi spowalnia, pojawia się rozbieżność między zegarami atomowymi, mierzącymi „obiektywny” czas uniwersalny, a czasem ziemskim. Po raz pierwszy sekundy przestępne dodano w 1972 roku, gdy sieci komputerowe dopiero raczkowały. Wówczas to doba definiowana na podstawie ruchu obrotowego Ziemi była o 0,0025 sekundy (2500 mikrosekund) dłuższa niż definiowana na podstawie zegarów atomowych. W ciągu roku rozbieżność czasu wynosiła niemal 1 sekundę. Twórcy sieci pomyśleli o tym problemie i stworzyli kod, pozwalający na koordynowanie czasu w sieciach komputerowych. Koordynacja nie jest prowadzona w regularnych odstępach. Od lat 70. dodano 27 sekund przestępnych. Ostatni raz uczyniono to w sylwestrową noc 2015/2016. Od roku 2020 średnie tempo ruchu obrotowego Ziemi wyraźnie wzrasta. O ile, jak wspominaliśmy, w roku 1972 różnica między czasem ziemskim, a czasem zegarów atomowych wynosiła 2500 mikrosekund, to w roku 2023 zmniejszyła się do 80 mikrosekund. To oznacza, że w skumulowana różnica w ciągu roku wynosi już zaledwie 0,03 sekundy. Wydaje się, że nasza planeta zaczęła przyspieszać, a ma to prawdopodobnie związek z jakimiś procesami toczącymi się w jej wnętrzu. Oznacza to konieczność wprowadzenia ujemnej sekundy przestępnej, czyli w pewnym momencie jedna z minut będzie składała się z 59 sekund. I tu pojawia się poważny problem. Dotychczas bowiem zakładano, że korekta czasu zawsze będzie polegała na dodawaniu sekundy przestępnej. Jeszcze kilka lat temu sądzono, że sekunda przestępna zawsze będzie miała wartość dodatnią i będzie zdarzała się coraz częściej. Jeśli jednak przyjrzymy się zmianom ruchu obrotowego Ziemi, a to one powodują konieczność wprowadzania sekundy przestępnej, bardzo prawdopodobna jest potrzeba wprowadzenia ujemnej sekundy przestępnej, wyjaśnia autor pracy na ten temat, Duncan Agnews, geofizyk ze Scripps Institute of Oceanography. Dotychczas nikt nie próbował wprowadzania ujemnej sekundy przestępnej. Istnieje więc ryzyko, że jeśli coś się nie uda, dojdzie do poważnych zaburzeń w funkcjonowaniu światowych sieci informatycznych. Prawdopodobnie przed koniecznością wprowadzenia ujemnej sekundy przestępnej stanęlibyśmy już w najbliższych miesiącach, gdyby nie... globalne ocieplenie. Istnieje wiele przyczyn, dla których może dochodzić do corocznych zmian prędkości ruchu obrotowego Ziemi. Część z nich powoduje identyczne zmiany z roku na rok. Jednak dwa zjawiska wywołują zmiany, których wielkość może być różna z roku na rok. Jednym z nich jest roztapianie się pokryw lodowych na biegunach. Pochodząca z nich woda podnosi poziom oceanów niemal na całym świecie. To oznacza przemieszczenie się masy z biegunów w kierunku równika, co spowalnia ruch obrotowy planety. Można to porównać do łyżwiarza figurowego, który rozkładając ręce spowalnia tempo piruetu. Agnew stwierdził, że gdyby nie przemieszczanie się masy z biegunów ku równikowi, to już prawdopodobnie w przyszłym roku musielibyśmy zmierzyć się z koniecznością wprowadzenia ujemnej sekundy przestępnej. Jednak problem nie został odsunięty na zbyt długo. Zdaniem uczonego taki typ koordynacji czasu czeka nas prawdopodobnie już w 2028 roku. Problem sekundy przestępnej nie będzie jednak dręczył nas zbyt długo. W 2022 roku Międzynarodowe Biuro Miar i Wag zdecydowało, że od roku 2035 dopuszczona zostanie większa niż 1 sekunda różnica czasu między czasem ziemskim a czasem zegarów atomowych. W tej chwili nie wiadomo, co miałoby zastąpić sekundę przestępną. Niektórzy proponują minutę przestępną. Tę można by wprowadzać raz na 50–100 lat. « powrót do artykułu
-
W ubiegłym roku w Grecji zakończył się wieloletni projekt archeologii podwodnej w pobliżu wyspy Kasos. Od 2019 roku archeolodzy z Narodowej Fundacji Badań we współpracy z Ministerstwem kultury przeprowadzili cztery podwodne wyprawy badawcze, do przygotowania których wykorzystali źródła pisane, od „Iliady” Homera po dokumenty współczesne. W trakcie projektu odkryto dziesięć wraków, datowanych od prehistorii (3000 p.n.e.) po czasy Imperium Osmańskiego. Znaleziska świadczą o bogactwie kulturowym basenu Morza Śródziemnego. Znalezione wraki pochodzą z terenu dzisiejszej Hiszpanii, Włoch, z Azji Mniejszej oraz Afryki. Ich badaniem zajął się międzynarodowy zespół archeologów, historyków, architektów, biologów i geologów. Badania prowadzono na głębokościach od 20 do 47 metrów. Archeolodzy trafili między innymi na amfory typu Dressel 20 – to duże naczynia o kulistym kształcie i pojemności 70–75 litrów pochodzące z prowincji Hispania Baetica – na których znaleziono pieczęcie datowane na lata 150–170. Odkryto też naczynia do picia oraz butelki z terra sigillata – rzymskiej ceramiki o czerwonej polewie – wyprodukowane w afrykańskich prowincjach Imperium Romanum, a także kamienną kotwicę z epoki archaicznej. Najmłodszym zaś znaleziskiem jest drewniana łódź o długości 25–30 metrów z metalowymi elementami, pochodząca prawdopodobnie z czasów II wojny światowej. « powrót do artykułu
-
Ludzie częściej zarażają zwierzęta, niż zwierzęta ludzi
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
Zoonozy, choroby przechodzące ze zwierząt na człowieka, to jedno z poważniejszych zagrożeń dla ludzkiego zdrowia. To często również wysoce niebezpieczne schorzenia, jak Ebola, wścieklizna czy ptasia grypa. Ostatnia pandemia, COVID-19, to również przypadek zoonozy. Z badań przeprowadzonych właśnie przez University College London wynika jednak, że patogeny znacznie częściej przechodzą w odwrotnym kierunku, z ludzi na zwierzęta udomowione i dzikie, powodując u nich antroponozy. Uczeni przeanalizowali niemal 12 milionów genomów wirusów dostępnych w publicznych bazach danych. Na podstawie dostępnych w nich informacji zrekonstruowali historię ewolucji oraz przejścia pomiędzy gatunkami wśród 32 rodzin wirusów. Okazało się, że antroponozy zdarzają się dwukrotnie częściej niż zoonozy. Powinniśmy postrzegać ludzi jako jeden z elementów szerokiej sieci wymiany patogenów, a nie jako gatunek, na którym koncentrują się zoonozy, mówi współautor badań, Francois Balloux. Badając i monitorując transmisje wirusów pomiędzy zwierzętami a ludźmi, w obu kierunkach, lepiej zrozumiemy ewolucję wirusów i – miejmy nadzieję – będziemy lepiej przygotowani na przyszłe epidemie oraz lepiej będziemy potrafili chronić środowisko naturalne, dodaje. Naukowcy zauważyli również, że przechodzenie pomiędzy gatunkami wiąże się z większą liczbą zmian genetycznych i mutacji, co wskazuje na toczące się procesy adaptacyjne. Jednak te wirusy, które już infekują dużą liczbę różnych gatunków wykazują mniej takich zmian, co sugeruje, że w sposób naturalny były dostosowane do większej liczby gospodarzy. Główny autor badań, doktorant Cedric Tan mówi, że gdy zwierzę zarazi się wirusem od człowieka zagraża to nie tylko zwierzęciu i stwarza ewentualne zagrożenie dla wysiłków na rzecz zachowania gatunku, ale może odbić się również na ludziach, gdyż w przypadku zwierząt hodowlanych niejednokrotnie trzeba zabić wiele z nich, by powstrzymać epidemię. A to z kolei niekorzystnie wpływ na możliwość wyżywienia ludzi. Ponadto wirus, który przeszedł z ludzi na zwierzęta może w organizmie nowego gospodarza nabrać nowych niebezpiecznych cech i ponownie zarazić ludzi. Możliwość przeniknięcia przez ścianę komórkową jest postrzegana jako pierwszy krok w kierunku zainfekowania gospodarza. Jednak badacze zauważyli, że wiele z adaptacji do nowego gospodarza nie było związanych z proteinami odpowiedzialnymi za wnikanie go komórek. A to wskazuje, że proces adaptacji wirusów jest bardzo skomplikowany i nie rozumiemy go w pełni. « powrót do artykułu -
Gdy ludzie decydują się na migrację, o wyborze kraju docelowego decyduje wiele czynników. Migranci rozważają, na ile dobrze mówią w języku kraju docelowego, czy mają tam rodzinę lub czy istnieje tam społeczność z ich kraju, jak bardzo normy obyczajowe i wartości odpowiadają ich normom czy jak daleko znajduje się kraj docelowy. Obecne modele migracji brały pod uwagę takie zmienne jak demografia, lokalizacja, język, odległość i wspólna historia. Badacze z Instytut Badań Demograficznych im. Maxa Plancka wykazali, że istnieje związek pomiędzy wzorcami migracji, a preferencjami dotyczącymi pożywienia. Oddalenie kulturowe jest trudne do badania, więc nie było dotychczas szeroko uwzględniane w badaniu migracji w wykorzystaniem modeli grawitacyjnych. Jednak kultura odgrywa ważną rolę w procesie migracji i chcieliśmy sprawdzić, na ile istotne są podobieństwa kulturowe w migracjach. Przeprowadziliśmy więc badania podobieństw kulturowych w oparciu o analizę widocznych na Facebooku preferencji dotyczących pożywienia i napojów, stwierdzają naukowcy. W 2022 roku Carolina Coimbra Vieira z Instytutu Badań Demograficznych stworzyła wraz z zespołem metodę pomiaru bliskości kulturowej za pomocą danych z Facebooka. Teraz opublikowali artykuł, w którym metoda ta została wykorzystana w praktyce. Analizie poddano dane z Facebooka z 16 krajów – Argentyny, Australii, Chile, Francji, Wielkiej Brytanii, Brazylii, Indonezji, Japonii, Korei Południowej, Malezji, Meksyku, Rosji, Singapuru, Hiszpanii, Turcji i USA. Naukowcy zastanawiali się na przykład, co oznacza fakt, że w USA rośnie zainteresowanie niektórymi tradycyjnymi potrawami kuchni Brazylii. Jedną z możliwych odpowiedzi jest stwierdzenie, że rośnie liczba brazylijskich emigrantów w USA. To mogłoby zwiększać zainteresowanie brazylijską kulturą. Jeśli zaś ci imigranci utworzą duża społeczność, to bardzo prawdopodobne jest, że liczba emigrantów z Brazylii będzie ciągle rosła. W tym przypadku liczba użytkowników Facebooka zainteresowanych potrawami i napojami z Brazylii służy nam jako wskaźnik wielkości brazylijskiej społeczności w Stanach Zjednoczonych. Jednym z naszych głównych odkryć jest stwierdzenie istotnej roli, jaką w migracji pomiędzy krajami odgrywają podobieństwa kulturowe, mówi Carolina Coimbra Vieira. A kulinaria posłużył jako standardowe zmienne statystyczne. Zmienne takie jak język, historia i oddalenie geograficzne są statyczne i symetryczne. A to oznacza, że „odległość” między USA a Brazylią mierzona tymi czynnikami raczej się nie zmienia. Zauważyliśmy, że kwestie kulturowe życia codziennego są podatne na zmiany i mogą być wykorzystane jako asymetryczne oraz dynamiczne wskaźniki podobieństw między oboma krajami. Na przykład zainteresowanie brazylijską kuchnią w USA nie jest takie samo, jak zainteresowanie amerykańską kuchnią w Brazylii. To ważne cenne wskaźniki w modelowaniu migracji, dodaje uczona. Wykorzystanie danych z Facebooka ma i tę zaletę, że szybko widać w nich zmiany, szczególnie tak gwałtowne, do jakich doszło po napaści Rosji na Ukrainę. Na razie zakres przeprowadzonych badań jest ograniczony do jednego serwisu społecznościowego oraz kwestii związanej z kulinariami. A przecież badania można uzupełnić chociażby o zmiany zainteresowań dotyczących rozrywki, sportu czy celebrytów. I trzeba uwzględnić tendencyjność danych z serwisów społecznościowych. Dlatego Coimbra Vieira uważa, że do potwierdzenia wyciągniętych obecnie wniosków konieczne będą kolejne badania. « powrót do artykułu
-
Doktor Marcin Glowacki z Curtin University wraz z zespołem prowadził badania, których celem było przyjrzenie się gazowi tworzącemu gwiazdy w jednej z radiogalaktyk. Naukowcy nie znaleźli jednak gazu w badanej przez siebie galaktyce. Natomiast podczas analizy danych doktor Głowacki zauważył coś innego. Informujemy o przypadkowym odkryciu 49 bogatych w wodór galaktyk w wolnym, trwającym 2 godziny 20 minut, czasie obserwacyjnym teleskopu MeerKAT, czytamy w pracy opublikowanej na łamach Monthy Notices of the Royal Astronomical Society. Nie spodziewałem się odkrycia niemal 50 nowych galaktyk w tak krótkim czasie. Wykorzystując różne techniki używane podczas pracy z MeerKAT nie tylko odkryliśmy nowe galaktyki, ale ujawniliśmy obecność w nich gazu, mówi Glowacki. Galaktyki zyskały nieformalną zbiorczą nazwę 49ers, na pamiątkę kalifornijskiej gorączki złota z 1849 roku. Dla Glowackiego to samorodki złota na niebie. Szczególnie interesujące są trzy galaktyki, które wyraźnie połączone są za pomocą gazu. W środkowej z nich powstaje bardzo dużo gwiazd. Prawdopodobnie kradnie ona gaz od sąsiadów, co napędza formowanie się w niej gwiazd. Z czasem dwie pozostałe galaktyki mogą stać się nieaktywne, stwierdza uczony. Doktor Glowacki mówi, że odkrycie dobrze pokazuje możliwości MeerKAT i dodaje, iż ma zamiar bardziej szczegółowo zbadać nowo odkryte galaktyki. MeerKAT to radioteleskop składający się z 64 anten w RPA, który wraz z teleskopem HERA (RPA) oraz dwoma zespołami radioteleskopów z Australii Zachodniej utworzy w przyszłości zespół radioteleskopów SKA (Square Kilometre Array) o powierzchni 1 km2. « powrót do artykułu
-
Czym są studia MBA i dlaczego warto się na nie zdecydować?
KopalniaWiedzy.pl dodał temat w dziale Artykuły
Studia podyplomowe to jedna z najszybszych metod awansu zawodowego. Dają one szybką możliwość zdobycia nowych umiejętności i wiedzy, co może prowadzić do lepszej kariery. Oferty uczelni spełniają wymagania rynku. Uczestnicy mogą z łatwością dopasować swoją ścieżkę edukacyjną do nieustannie zmieniających się trendów na rynku pracy, ponieważ istnieje wiele opcji do wyboru. Nowoczesne studia menedżerskie typu MBA mogą okazać się jedną z najlepszych inwestycji w przyszłość! Sprawdź koniecznie! MBA, czyli Master of Business Administration, to nazwa chętnie wybieranych studiów podyplomowych, dedykowanych osobom pracującym w administracji. Ich uczestnikami są menedżerowie o dużym doświadczeniu, ale również pracownicy stanowisk decyzyjnych, którzy chcą awansować wyżej. To doskonała opcja dla osób, które chcą rozwijać się w umiejętnościach biznesowych. Wszystkie programy MBA skupiają się na trzech rzeczach: wiedzy o zarządzaniu, praktycznych umiejętnościach potrzebnych do skutecznego prowadzenia firm oraz społecznych umiejętnościach współczesnych menedżerów. Dlaczego warto ukończyć studia MBA — powody! Dla menedżerów wyższego szczebla studia podyplomowe MBA należą do najbardziej cenionych. Ich ukończenie przyniesie wiele korzyści, zarówno dla rozwoju osobistego, jak i zawodowego. Absolwenci MBA zdobywają lepsze zrozumienie zawiłości prowadzenia biznesu i umiejętności podejmowania strategicznych decyzji. W związku z tym są one bardziej zróżnicowane w zakresie narzędzi niezbędnych do rozwiązywania zagwozdek i problemów w rozwojowym środowisku biznesowym. W ramach studiów MBA uzyskasz umiejętności interpersonalne i przywódcze, które pozwalają lepiej komunikować się z zespołem i inspirować i motywować innych do osiągania wspólnych celów. Ponadto programy MBA często koncentrują się na rozwijaniu umiejętności kreatywnego myślenia oraz tworzenia innowacyjnych rozwiązań, które pomagają menedżerom znacznie lepiej działać z nowymi projektami. Nie można również pominąć faktu, że studia MBA znacznie poszerzają perspektywy finansowe oraz pozwalają awansować na wyższe stanowiska w danej dziedzinie. Najlepsze uczelnie z MBA w Polsce Prężnie rozwijające się duże firmy, korporacje i firmy o ugruntowanej pozycji doceniają wykształcenie MBA, ponieważ pozwala im pracować w najlepszych warunkach z najlepszymi ludźmi. Większość pracodawców szuka absolwentów MBA ze względu na ich zdolność do analizy rynku, podejmowania strategicznych decyzji oraz zrozumienia wielu aspektów zarządzania przedsiębiorstwem. Na koniec należy zauważyć, że dyplomy ukończenia studiów MBA są bardzo cenione na całym świecie, co znacznie ułatwia rozwój kariery na całym świecie. Decydując się na te konkretne studia, warto rozejrzeć się za kierunkiem na znanych polskich uczelniach wyższych, jak i uczelniach oferujących nauczanie RealTime online. Ciekawą opcją może okazać się WSB-NLU. Ta niesamowita Wyższa Szkoła Biznesu w Nowym Sączu to klucz do znacznie lepszego stanowiska dla Ciebie i Twoich współpracowników! « powrót do artykułu -
Ludzki mózg robi się coraz większy. Badania przeprowadzone na Uniwersytecie Kalifornijskim w Davis (UC Davis) wykazały, że objętość mózgów osób urodzonych w latach 70. XX wieku była o 6,6% większa, a ich powierzchnia o 15% przewyższała rozmiary mózgu ludzi urodzonych w latach 30. XX wieku. Autorzy badań uważają, że zwiększenie rozmiarów może prowadzić do zwiększania się „rezerwy mózgowej” i zmniejszenia ryzyka demencji związanych z wiekiem. Wydaje się, że dekada, w której się urodziliśmy, wpływa na rozmiary mózgu i – potencjalnie – jego długoterminowe zdrowie. Główną rolę w rozmiarach mózgu odgrywa genetyka, ale nasze badania wskazują, że wpływy zewnętrzne – jak kwestie zdrowotne, społeczne, kulturowe i edukacyjne – również mogą odgrywać rolę, mówi główny autor badań, profesor Charles DeCarli, dyrektor Alzheimer's Disease Research Center. Podczas badań naukowcy wykorzystali dane z rezonansu magnetycznego uczestników Framingham Heart Study (FHS). To program badawczy prowadzony od 1948 roku we Framingham w stanie Massachusetts. Jego celem jest analiza wzorców występowania chorób układu krążenia i innych schodzeń. Na początku wzięło w nim udział 5209 osób w wieku 30–62 lat. Obecnie badane jest 2. i 3. pokolenie uczestników. Badania MRI prowadzono w latach 1999–2019 na osobach urodzonych od lat 30. po lata 70. Wzięło w nich udział 3226 osób, a średnia wieku wynosiła 57 lat. Naukowcy z UC Davis porównali skany osób urodzonych w latach 30. z tymi urodzonymi w latach 70. Odkryli spójny wzorzec zwiększania się niektórych struktur mózgu. Stwierdzili na przykład, że objętość mózgu rośnie z dekady na dekadę. Średnia objętość mózgu osób urodzonych w latach 30. wynosiła 1234 cm3, dla osób urodzonych w latach 70. było to 1321 cm3. Porównanie zaś powierzchni mózgu wykazało wzrost z 2056 cm2 do 2104 cm2 pomiędzy latami 30. a 70. Zwiększyły się też objętość istoty białej, istoty szarej oraz hipokampu. Większy mózg może nas chronić przed demencją, sądzą autorzy badań. Obecnie około 7 milionów Amerykanów cierpi na chorobę Alzheimera, a do 2040 roku ma być to 11,2 miliona. Mimo że w starzejącej się populacji liczba przypadków choroby rośnie, to jednak spada odsetek osób na nią cierpiących. Już wcześniejsze badania wykazały, że od lat 70. XX wieku odsetek przypadków tej choroby zmniejsza się w tempie 20% na dekadę. Być może jedną z przyczyn jest poprawa zdrowia mózgu. Większe struktury mózgowe, jak te obserwowane w naszych badaniach, mogą odzwierciedlać lepszy jego rozwój oraz lepsze zdrowie. Większe struktury mogą bowiem oznaczać większą rezerwę, która stanowi bufor dla demencji związanych z wiekiem, wyjaśnia DeCarli. Silną stroną badań FHS jest fakt, że śledzony są losy trzech pokoleń ludzi, którzy urodzili się na przestrzeni 80 lat. Słabością jest natomiast nadreprezentacja Białych, więc nie badania nie są reprezentatywne dla składu etnicznego USA. « powrót do artykułu
-
CERN ogłosił, że po raz pierwszy w czasie zderzenia protonów udało się zaobserwować, jak z dwóch fotonów powstały dwa taony. Przeprowadzenie badań możliwe było dzięki wyjątkowej precyzji detektora CMS. Jednocześnie wykonał on najbardziej precyzyjne pomiary anomalnego momentu magnetycznego taonów. Taon należy do leptonów, które – wraz z kwarkami – tworzą materię. Cząstka ta została odkryta pod koniec lat 70. XX wieku, a powiązane z nią neutrino – neutrino taonowe – zarejestrowano w roku 2000. Taony trudno jest badać, gdyż pozostają stabilne przez zaledwie 290x10-15 sekundy. Znacznie lepiej zbadane są dwa pozostałe leptony posiadające ładunek ujemny: elektron i mion. Dość dobrze rozumiemy ich momenty magnetyczne i anomalne momenty magnetyczne. Prawdę mówiąc, anomalny moment magnetyczny elektronu to jedna z najlepiej poznanych właściwości w fizyce cząstek. Idealnie zgadza się ona z Modelem Standardowym. Z kolei anomalny moment magnetyczny mionu jest jedną z najbardziej intensywnie badanych właściwości. W przypadku taonu, z powodu jego niezwykle krótkiego czasu życia, badanie tej cechy jest trudne. Dotychczasowe pomiary obarczone są bardzo dużym błędem. W czasie badań w akceleratorach naukowcy poszukują śladów wyjątkowego procesu, podczas którego dochodzi do interakcji dwóch fotonów, a w jej wyniku pojawiają się dwa taony. Następnie rozpadają się one na miony, elektrony lub piony posiadające ładunek elektryczny oraz neutrina. Dotychczas w eksperymentach ATLAS i CMS obserwowano takie zjawisko podczas zderzeń jąder ołowiu. Teraz dokonano pierwszej obserwacji podczas zderzeń protonów. Udało się odizolować to zdarzenie od innych. "To wyjątkowe osiągnięcie pozwoli na przeprowadzenie wielu przełomowych pomiarów", cieszy się Michael Pitt z zespołu analityków CMS. Od razu po zaobserwowaniu poszukiwanego wydarzenia naukowcy dokonali najbardziej precyzyjnych pomiarów anomalnego momentu magnetycznego taonów. W przyszłości z pewnością precyzja pomiaru zostanie poprawiona, ale obecne osiągnięcie pokazuje, jak ważną rzecz na polu fizyki cząstek udało się osiągnąć. W porównaniu z poprzednimi pomiarami margines błędu został zmniejszony aż 7-krotnie. To naprawdę ekscytujące, że w końcu możemy zbliżyć się do określenia podstawowych właściwości taonu", mówi Izaak Neuteling z zespołu analityków CMS. A jego kolega Xuelong Quin dodaje, że na poprawienie precyzji pomiarów trzeba było czekać ponad 20 lat. « powrót do artykułu