Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36655
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    200

Zawartość dodana przez KopalniaWiedzy.pl

  1. Na Lizard Island (Jiigurru) u wybrzeży stanu Queensland odkryto najstarszą w Australii ceramikę. Jej znalezienie rzuca wyzwanie przekonaniu, jakoby australijscy Aborygeni nie używali ceramiki aż do nawiązania kontaktu z Europejczykami. Ceramikę znaelziono podczas wykopalisk prowadzonych przez profesora Seana Ulma z Uniwersytetu Jamesa Cooka, który jest głównym badaczem w Australian Research Council Centre of Excellence for Australian Biodiversity and Heritage. Przez dwa lata archeolodzy badali na Jiigurru śmietnisko o głębokości 2,4 metra. Znaleźli tam dowody na istnienie osadnictwa, takie jak pozostałości małży oraz ryb łowionych i zjadanych przez żyjących tu ludzi. Szczątki te liczą sobie ponad 6000 lat. Na głębokości mniej niż metr pod powierzchnią znaleziono dziesiątki fragmentów ceramiki, których wiek oszacowano na 2–3 tysiące lat. To najstarsza ceramika w Australii, mówi profesor Ulm. Analizy ceramiki wykazały, że została ona wyprodukowana lokalnie, z użyciem materiałów pochodzących z wyspy. Czas powstania ceramiki nakłada się na okres, w którym lud Lapita z południa Papui-Nowej Gwinei rónież wytwarzał ceramikę. Odkrycie może więc wskazywać na istnienie długodystansowej wymiany kulturowej i innowacji technologicznych na długo zanim do Australii przybyli Europejczycy. Wszystko bowiem wskazuje na to, że Aborygeni z północnych regionów Queensland mieli kontakty ze społecznościami wytwarzającymi ceramikę na Nowej Gwinei. Odkrycie pokazuje nam, że tutejsze społeczności dysponowały zaawansowaną techniką podróży morskich, a obiekty te pozwalają nam lepiej zrozumieć wymianę kulturową, jaka przed tysiącami lat zachodziła na Jingurru, dodaje Ulm. Obecność ceramiki pokazuje, że lokalne społeczności prowadziły długodystansowy handel morski. O wymianie handlowej oraz kulturowej świadczą podobne ozdoby z muszli i bambusowe fajki, a ceramika pokazuje, że dochodziło też do wymiany technologii. Aborygeni nauczyli się wytwarzania naczyń z gliny i samodzielnie wykonywali je na Jiigurru. « powrót do artykułu
  2. NASA informuje, że dotychczas potwierdzono odkrycie 5602 egzoplanet, a na potwierdzenie czeka kolejnych 10 170 kandydatów na planety. Potwierdzone planety zostały znalezione w 4299 układach planetarnych. Mianem egzoplanety określa się planetę spoza Układu Słonecznego. Większość z nich krąży wokół gwiazd, chociaż są i takie, które samotnie przemierzają wszechświat. Kosmos może być pełen takich planet, które nie są związane grawitacyjne z żadną gwiazdą. Polscy naukowcy są jednymi z odkrywców takich obiektów. Pierwsze egzoplanety odkrył, we współpracy z Dale'em Frailem, polski astronom Aleksander Wolszczan. O odkryciu oficjalnie poinformowano w styczniu 1992 roku. Do końca 1999 roku poznaliśmy w sumie 30 planet pozasłonecznych. W roku 2010 wiedzieliśmy o istnieniu 511 takich obiektów, a do końca 2020 roku potwierdzono istnienie 4373 egzoplanet. Wśród wspomnianych 5602 potwierdzonych planet najwięcej, bo 1919, to obiekty podobne do Neptuna czy Urana. Kolejną grupą są gazowe giganty, które możemy porównać do Saturna oraz Jowisza. Jest ich 1786. SuperZiemi, czyli planet bardziej masywnych od Ziemi, ale lżejszych od Neptuna, które mogą być planetami skalistymi, gazowymi lub połączeniem obu tych typów, jest 1689. Kolejnych 200 egzoplanet to skaliste obietky typu ziemskiego o jądrach bogatych w żelazo. Podobne są do Merkurego, Wenus, Ziemi i Marsa. Najmniejsza grupa 8 planet to takie, których właściwości jeszcze nie określono. Naukowcy zgadzają się co do tego, że w samej tylko Drodze Mlecznej istnieje olbrzymia liczba planet. Niektórzy twierdzą, że jest ich około 100 miliardów, zdaniem innych szacunków ich liczba może sięgać 300 miliardów. Istnieje pięć metod wykrywania planet pozasłonecznych. Najczęściej (3309 przypadków) planety takie były wykrywane metodą tranzytu. Gdy pomiędzy obserwującym gwiazdę teleskopem, a samą gwiazdą, znajdzie się planeta, przesłoni ona część światła swojej gwiazdy. Badając te spadki jasności oraz spektrum docierającego do teleskopu światła, można nie tylko odkryć planetę, ale określić jej wielkość, temperaturę czy skład atmosfery. Drugą z owocnych metod, a wykryto za jej pomocą 1088 planet, jest badanie zmian prędkości radialnej gwiazdy. Mimo, że planety są niewielkie w stosunku do gwiazd, to wywierają na nie wpływ poprzez grawitację. Krążąca wokół gwiazdy planeta może spowodować, że gwiazda będzie się oddalała i przybliżała do obserwatora. To zaś powoduje, że pojawia się efekt Dopplera, zjawisko polegające na zmianie częstotliwości fali w zależności od tego, czy źródło fali przybliża się czy oddala od obserwatora. Efekt ten możemy obserwować na co dzień, słuchając samochodu jadącego na sygnale. Dźwięk syreny zbliżającej się karetki jest coraz wyższy lub coraz niższy, w miarę jak samochód się do nas zbliża i oddala. W przypadku światła jego spektrum przesuwa się w stronę fal czerwonych lub niebieskich. Kolejny sposób na egzoplanetę to mikrosoczewkowanie grawitacyjne. Wykorzystywany jest tutaj fakt, że masywne obiekty zaginają światło. Planeta może więc zagiąć światło odległej gwiazdy w tle, co nasze teleskopy zarejestrują jako pojaśnienie tej gwiazdy. Analiza takich zjawisk pozwoliła na odkrycie dotychczas 210 egzoplanet. Astronomowie potrafią też bezpośrednio obrazować egzoplanety, dzięki czemu odkryto 68 z nich. W tej technice największym problemem jest fakt, że gwiazdy są miliony razy jaśniejsze od planet. Wszelkie światło odbite przez planetę czy wypromieniowywane przez nią ciepło jest przesłaniane przez znacznie jaśniejszą gwiazdę macierzystą. Współczesna technologia pozwala jednak na zasłonięcie światła gwiazdy i obserwowanie dzięki temu emisji z planety. Ostatnią zaś, i najtrudniejszą do wykorzystania, metodą jest astrometria. Jak już wspominaliśmy, planeta wpływa na gwiazdę, powodując zmiany jej położenia w przestrzeni. Astronomowie wykonują więc serię zdjęć interesującej ich gwiazdy oraz gwiazd w jej otoczeniu i sprawdzają na nich odległość pomiędzy badaną gwiazdą a gwiazdami referencyjnymi. Jeśli odległość się zmieniła, analiza tych zmian może wskazać na istnienie planety. Jednak wykorzystywanie astrometrii w celu poszukiwania egzoplanet jest niezwykle trudne, gdyż zmiany położenia gwiazdy są niewielkie. Badania takie wymagają użycia układów optycznych najwyższej jakości, a szczególnie trudne jest ich wykonywanie z powierzchni Ziemi, gdyż sama atmosfera zakłóca obserwacje. Dlatego też dotychczas w ten sposób odnaleziono jedynie 3 planety pozasłoneczne. Tylko 247 spośród znanych nam egzoplanet krąży wokół gwiazd widocznych gołym okiem, a jedynie 96 znajduje się w układach, w których znamy więcej niż 1 planetę. Interesujący jest też sposób nazywania gwiazd i planet. Zwykle stosuje się system numeryczny, niewiele gwiazd i planet ma własne nazwy. Pierwszą część nazwy stanowi zwykle nazwa teleskopu lub projektu badawczego, w ramach którego wykryto egzoplanetę. Następnie mamy cyfrę oznaczającą kolejny numer, pod którym skatalogowano gwiazdę, a później następuje mała litera, oznaczająca planetę. Planeta najbliższa gwieździe zostaje oznaczona jako „b”, gdyż sama gwiazda, wokół której planeta krąży, jest domyślnie uznawana za „A”. Gwiazdy mają duże litery, planety małe, co jest przydatne, gdy znajdziemy układ podwójny czy wielokrotny gwiazd. Tak więc planeta Kepler-16b to planeta najbliższa (b) gwieździe, która jako 16. z kolei została skatalogowana przez Teleskop Keplera. Zgodnie z tą konwencją Ziemię moglibyśmy oznaczyć jako Słońce d (Słońce, czyli nazwa gwiazdy, a „d” to trzecia najbliższa jej planeta, poczynając od Merkurego, który zostałby oznaczony jako „b”). Wśród wszystkich potwierdzonych egzoplanet najbliższa Ziemi jest Proxima Centauri b, położona w odległości 4 lat świetlnych od nas. Najbardziej zaś oddalone, dla których udało się określić odległość, to SWEEPS-4 b i SWEEPS-11 b. Obie położone są w odległości 27727 lat świetlnych. Najlżejsza ze znanych egzoplanet to PSR B1257+12 b o masie 0,02 mas Ziemi, a najbardziej masywna, Kepler-297 d, ma masę 282 razy większą niż masa Jowisza. Z pełnym katalogiem potwierdzonych egzoplanet można zapoznać się na stronie NASA. « powrót do artykułu
  3. Każda kolejna ciąża we wczesnej dorosłości powoduje, że organizm kobiety starzeje się o dodatkowe 2,4–2,8 miesięcy. Naukowcy z Mailman School of Public Health na Columbia University przeprowadzili badania na 1735 młodych mieszkankach Filipin. Wykazali, że organizmy kobiet, które były w ciąży, były biologicznie starsze od organizmów kobiet, które w ciąży nie były, a panie, które miały za sobą więcej ciąż były biologicznie starsze od koleżanek, które rzadziej zachodziły w ciążę. Przyspieszonego starzenia biologicznego organizmu nie zauważono w przypadku mężczyzn, co wskazuje, że przyczyną nie jest samo posiadanie dziecka, ale coś powiązanego z ciążą lub karmieniem piersią. Uczeni z Columbia University zajęli się tym tematem, gdyż chcieli bliżej przyjrzeć się wynikom badań epidemiologicznych, z których wynikało, iż większa płodność może mieć negatywny wpływ na zdrowie i długość życia kobiet. Z badań tych nie można było się jednak dowiedzieć, czy koszty związane z większą płodnością ujawniają się w młodszym wieku, zanim jeszcze pojawią się choroby i inne dolegliwości związane z wiekiem. Naukowcy wykorzystali więc badania metylacji DNA, które pozwalają sprawdzić tzw. zegar epigenetyczny. To pozwala na ustalenie wieku biologicznego tkanek. Pojawienie się zegara epigenetycznego zrewolucjonizowało sposób, w jaki badamy tempo biologicznego starzenia się w czasie życia. Otwiera on przed nami nowe możliwości badania długoterminowych kosztów reprodukcji i innych życiowych wydarzeń, mówi główny autor pracy, doktor Calen Ryan. Nasze badania sugerują, że ciąża przyspiesza biologiczne starzenie się i widać to już u młodych wysoce płodnych kobiet. To również pierwsze badania, w czasie których śledziliśmy te same kobiety przez długi czas, łącząc każdą z ciąż ze zmianami wieku biologicznego, dodaje uczony. Związek pomiędzy ciążą, a przyspieszoną pracą zegara epigenetycznego istniał nawet po uwzględnieniu wielu innych czynników wpływających na przyspieszenie biologicznego starzenia się, takich jak palenie, status społeczno-ekonomiczny czy genetyka. Doktor Ryan przestrzega jednak przed wyciąganiem pochopnych wniosków z badań. Wiele z kobiet, które badaliśmy, zaszło w ciążę w późnym wieku nastoletnim, gdy ich organizmy wciąż się rozwijały. Taka ciąża może stanowić szczególne wyzwanie dla organizmu, zwłaszcza tam, gdzie dostęp do opieki zdrowotnej i innych zasobów jest ograniczony, mówi. Uczony dodaje, że wiele jeszcze nie wiemy o wpływie ciąży i innych aspektów reprodukcji na proces starzenia się organizmu. Nie wiemy też, do jakiego stopnia przyspieszone starzenie się badanych kobiet będzie miało wpływ na ich zdrowie i śmiertelność za kilka dekad. « powrót do artykułu
  4. Uniwersytet w Edynburgu poinformował, że przed dwoma dniami, 8 kwietnia, po krótkiej chorobie zmarł profesor Peter Higgs. Uczony zyskał sławę w świecie nauki po tym, jak w 1964 roku przewidział istnienie nieznanej wówczas cząstki, bozonu Higgsa. Na potwierdzenie istnienia tej cząstki trzeba było czekać 48 lat, a do jej wykrycia konieczne było wybudowanie Wielkiego Zderzacza Hadronów. Bozon został odkryty w 2012 roku, a rok później profesor Higgs otrzymał Nagrodę Nobla za przewidzenie jego istnienia. Peter Higgs urodził się 29 maja 1929 roku w Wielkiej Brytanii. Późniejszy noblista w dużej mierze uczył się w domu. Było to spowdowane z jednej strony astmą, na którą cierpiał, z drugiej zaś pracą jego ojca, który jako inżynier dźwięku BBC często się przeprowadzał. W latach 1941–1946 uczęszczał do Cotham Grammar School w Bristolu, gdzie zainteresowały go prace byłego ucznia tej szkoły, Paula Diraca, jednego z twórców mechaniki kwantowej. Higgs studiował matematykę i fizykę, w 1954 roku uzyskał doktorat z fizyki molekularnej. Podstawą teorii, która przyniosła Higgsowi sławę, były prace japońskiego noblisty z University of Chicago, Yoichiro Nambu. W swojej pierwszej pracy Higgs wykazał niedociągnięcia w teorii Nambu. Następnie napisał drugi artykuł, w którym opisał własny model teoretyczny, ale tekst został odrzucony przez redaktorów Physics Letters, którzy stwierdzili, że nie ma on oczywistych związków z fizyką. Higgs dopisał więc dodatkowy akapit i wysłał go do Physical Review Letters, gdzie artykuł opublikowano. W tym samym mniej więcej czasie do podobnych wniosków co Higgs doszli inni naukowcy (Brout i Englert oraz Guralnik wraz z Hagenem i Kibble'em). W swojej pracy Higgs powołał się na artykuł Brouta i Englerta, a w trzecim artykule Higgs powołał się na swoje dwa poprzednie. Z czasem prace wszystkich wymienionych naukowców uznano za równie ważne dla rozwoju teorii Higgsa. Jednak z sobie tylko znanych powodów Królewska Szwedzka Akademia Nauk przyznała nagrodę Nobla tylko Higgsowi i Englertowi (Brout zmarł w 2011 roku), pomijając Guralnika, Hagena i Kibble'a. Dnia 4 lipca 2012 roku CERN poinformował o odkryciu bozonu Higgsa. Rok później profesor Higgs i François Englert podzielili się Nagrodą Nobla z fizyki za odkrycie mechanizmu Brouta-Englerta-Higgsa, zwanego polem Higgsa. Koncepcja pola Higgsa została wykorzystana do stworzenia Modelu Standardowego. Peter Higgs był niezwykłą indywidualnością. Utalentowanym naukowcem, którego wizje i wyobraźnia wzbogaciły wiedzę o otaczającym nas świecie. Jego pionierskie prace stały się motywacją dla tysięcy naukowców, a jego spuścizna będzie inspirowała przyszłe pokolenia, stwierdził profesor Peter Mathieson, rektor Uniwersytetu w Edynburgu. « powrót do artykułu
  5. Po 9 latach pracy naukowcy i inżynierowie ze SLAC National Accelerator Laboratory ukończyli budowę Legacy Survey of Space and Time (LSST) Camera. Urządzenie o rozdzielczości 3200 megapikseli zostanie zamontowane w Vera C. Rubin Observatory, które ma po raz pierwszy zostać uruchomione w styczniu przyszłego roku. Niezwykły aparat będzie co 20 sekund wykonywał fotografię o czasie ekspozycji 15 sekund i w ciągu 10 lat dostarczy olbrzymią ilość danych, które pozwolą na lepsze zrozumienie ciemnej energii, badanie ciemnej materii, Drogi Mlecznej i Układu Słonecznego. Biorąc pod uwagę przerwy techniczne, nieodpowiednią pogodę i inne przerwy w pracy, LSST powinien dostarczać około 200 000 zdjęć rocznie. Wspomniane 3200 megapikseli to rozdzielczość tak duża, że pozwala na zarejestrowanie piłeczki golfowej z odległości 25 kilometrów. Aparat korzysta z 201 czujników CCD o rozdzielczości 16 megapikseli każdy. Każdy z pikseli ma szerokość około 10 mikrometrów, a całość jest niezwykle płaska. Nierówności nie przekraczają 1/10 grubości ludzkiego włosa. Dzięki tak małym pikselom i tak płaskiej powierzchni, możliwe jest wykonywanie zdjęć w niezwykle wysokiej rozdzielczości. Aparat, w połączeniu z możliwościami lustra teleskopu Vera C. Rubin Observatory, pozwoli na rejestrowanie obiektów, które są 100 milionów razy mniej jasne, niż minimalna jasność wymagana, by zauważyło je ludzkie oko. Przednia soczewka aparatu ma ponad 1,5 metra średnicy, jest największą soczewką jaka kiedykolwiek powstała na potrzeby aparatu astronomicznego. Druga, metrowej średnicy soczewka, ma korygować wszelkie błędy pierwszej i stanowi też zamknięcie komory próżniowej, w której znajdują się czujniki CCD. Będą one pracowały w temperaturze około -100 stopni Celsjusza, co ma pomóc w redukcji zakłóceń. Badania ciemnej materii i ciemnej energii to istotna część współczesnej fizyki. Bardziej niż kiedykolwiek wcześniej lepsze zrozumienie podstawowych praw fizyki wymaga od nas coraz głębszego spoglądania w kosmos. Dzięki LSST Camera Rubin Observatory zajrzy głębiej w przestrzeń kosmiczną i pomoże nam odpowiedzieć na jedne z najtrudniejszych i najważniejszych pytań współczesnej fizyki, stwierdza Kathy Turner, odpowiedzialna w Departamencie Energii za Cosmic Frontier Program. Gdy LSST Camera trafi do Simonyi Survey Telescope na Cerro Pachón w Andach, będzie określał pozycje i mierzył jasność olbrzymiej liczby obiektów na nocnym niebie. Z tych danych naukowcy wyciągną wiele pożytecznych wniosków. Będą przede wszystkim poszukiwali sygnałów słabego soczewkowania grawitacyjnego, które pozwoli lepiej określać rozkład masy we wszechświecie oraz ewolucję tego rozkładu w czasie. To z kolei pomoże zrozumieć, jak ciemna energia napędza rozszerzanie się wszechświata. « powrót do artykułu
  6. Podczas prac przy projekcie drogowym Oosterweel Link, brakującym odcinku obwodnicy Antwerpii, trafiono na niezwykły zabytek – jedyny zachowany czerwonawo-brązowy kontener kolejowy LNER. Nie wiadomo kto, kiedy i dlaczego zakopał go na betonowym postumencie przy Noordkasteel, XIX-wiecznym forcie, który w 1934 roku został zmieniony w tereny rekreacyjne. Niestety, ku rozpaczy archeologów i miłośników kolejnictwa, kontener nie wytrzymał prac wykopaliskowych. Jego drewniane ściany rozsypały się i po znalezisku pozostały tylko zdjęcia. Jeszcze w XIX wieku brytyjskie koleje woziły towary w zwykłych kwadratowych skrzyniach. Firmy kolejowe dość szybko stworzyły standardowe kontenery, które łatwiej było ładować i załadowywać na wagony. Około 1930 roku powstał pierwszy model kontenera LNER – London North Eastern Railway – jednej z czterech działających w Wielkiej Brytanii firm kolejowych. Był on malowany na kolor czerwonawo-brązowy, który po kilku latach zastąpiono niebieskim. Znaleziony kontener miał numer BK765, dzięki czemu wiemy, że został zbudowany w roku 1935 lub 1936. Litera B oznacza, że to kontener pełnowymiarowy o pojemności 4 ton imperialnych (4064 kg), a K to symbol kontenera do przewozu mebli. Zachowały się na nim fragmenty napisów, jak „...NITURE REMOVAL TO HOUSE” czy „LNER”. Nie wiadomo, kiedy kontener dotarł do Antwerpii i jak znalazł się przy Noordkasteel. Prawdopodobnie kontener został ustawiony na terenie rekreacyjnym, służąc jako magazyn, miejsce sprzedaży biletów lub schronienie przed słońcem. « powrót do artykułu
  7. Na Uniwersytecie Jagiellońskim zidentyfikowano syntetyczny polimer o silnych właściwościach przeciwgrzybicznych i niskiej toksyczności. Jego odkrycie to wynik wieloletniej pracy zespołu doktor Magdaleny Skóry z Collegium Medicum i dra Kamila Kamieńskiego z Wydziału Chemii UJ. Kierowane przez uczonych zespoły badały polimery pod kątem ich zastosowania w przemyśle kosmetycznym i medycynie. Szczególnie interesowały ich substancje, których można by użyć do leczenia grzybicy, gdyż liczba obecnie stosowanych jest ograniczona. Polimer, o którym mowa, dobrze rozpuszcza się w wodzie i alkoholach, może więc być używany w substancjach do stosowania na skórę czy paznokcie. Jest łatwy do wytworzenia i stosunkowo niedrogi. Badany przez nas związek chemiczny jest polimerem kationowym – ma dodatni ładunek. Cecha ta umożliwia oddziaływanie polimeru z ujemnie naładowanymi błonami biologicznymi żywych organizmów. To zapewne jeden z czynników mających wpływ na jego skuteczność. W naszej ocenie polimer wchodzi w interakcję z komórkami grzybów, nie pozwalając im na podziały czy tworzenie strzępek. W badaniach laboratoryjnych obserwujemy zahamowanie wzrostu grzybów w obecności polimeru. Jednocześnie potwierdziliśmy w badaniach na liniach komórkowych, że polimer wykazuje niską toksyczność w stosunku do komórek ssaczych. Ma on więc działanie wysoce selektywne, ukierunkowane właśnie na grzyby, wyjaśnia dr Skóra. Badania in vitro potwierdziły, że związek skutecznie działa na wywołujące zakażenia skóry i paznokci grzyby z rodzaju Trichophyton czy też Fusarium, które wywołują grzybice u ludzi, zwierząt i roślin. Badany polimer jest mniej toksyczny od stosowanych obecnie substancji antymykotycznych. Niska toksyczność w stosunku do komórek ssaczych to nie jedyny walor tego polimeru. Odkryliśmy również, że jest on skuteczniejszy in vitro od niektórych stosowanych obecnie substancji leczniczych, ponieważ efekt przeciwgrzybiczy pojawia się przy kilkukrotnie mniejszych stężeniach, dodaje doktor Skóra. Obecnie naukowcy skupiają się na badaniach nad toksycznością i optymalizacją stężeń w stosunku do różnych gatunków grzybów oraz nad komercjalizacją polimeru. « powrót do artykułu
  8. Naukowcy z University of Cambridge zauważyli warianty genów, które mają największy znany wpływ na rozwój otyłości u dorosłych. Badania, których wyniki opublikowano na łamach Nature Genetics, prowadzone były przez Medical Research Council oraz Institute of Metabolic Science. Wykorzystano podczas nich sekwencjonowanie całoeksomowe (WES) i informacje o BMI u 587 000 osób. Uczeni odkryli warianty genu BSN (Bassoon), które zwiększają ryzyko otyłości aż 6-krotnie i są powiązane ze zwiększonym ryzykiem niealkoholowego stłuszczenia wątroby oraz cukrzycy typu 2. Znaleziono je u 1 na 6500 dorosłych osób, co oznacza, że w Polsce problem może dotyczyć około 5000 osób. Duże ryzyko stwarzają też warianty APBA1. Otyłość ma liczne przyczyny, w tym genetyczne. Są one jednak słabo rozumiane. Już wcześniej odkryto liczne warianty genów, które powiązano z otyłością u dzieci. Geny te powiązane są ze szlakiem leptyna/melanokortyna, który odgrywa kluczową rolę w regulowaniu apetytu przez podwzgórze. Co prawda w mózgu występują białka kodowane przez BSN i APBA1, jednak nic nie wiadomo, by były one powiązane ze szlakiem leptyna/melanokortyna. Ponadto warianty BSN i APBA1 nie są powiązane z otyłością dziecięcą. Dlatego uczeni z Cambridge sądzą, że odkryli nieznany mechanizm powstawania otyłości, odmienny o mechanizmów powiązanych z dotychczas znanymi wariantami genetycznymi. Zidentyfikowaliśmy dwa geny, których warianty wywierają największy wpływ na otyłość ze wszystkich znanych nam czynników genetycznych. Jeszcze ważniejszy jest fakt, że warianty w BSN są powiązane z otyłością u dorosłych, a nie u dzieci. Odkrycie to pozwala nam na nowo docenić związki genetyki, rozwoju układu nerwowego i otyłości, mówi profesor Giles Yeo z MRC Metabolic Diseases Unit. « powrót do artykułu
  9. Jednym z największych problemów, z jakim muszą mierzyć się twórcy komputerów kwantowych, jest olbrzymia liczba błędów, które generują takie maszyny podczas obliczeń. W przeciętnej maszynie kwantowej odsetek błędów wynosi 1:1000 (10-3). W niektórych komputerach jest to aż 1:100, a najlepszy odsetek błędów wynosi 1:10 000 (10-4). To zdecydowanie zbyt dużo. Wielu ekspertów uznaje, że o użytecznym komputerze kwantowym będziemy mogli mówić, gdy odsetek błędów spadnie do 10-12. Odsetek błędów w komputerach klasycznych wynosi 10-18. Jedną z firm, które od dawna pracują nad problemem błędów w komputerach kwantowych, jest Microsoft. Wśród rozwiązań, jakie proponują tamtejsi eksperci, jest tworzenie mniejszej liczby logicznych kubitów, z większej liczby kubitów fizycznych. Powstaje w ten sposób system wirtualizacyjny kubitów. W arXiv udostępniono artykuł, w którym opisano efekty współpracy inżynierów Quantinuum i Microsoftu. Firma Quantinuum dostarczyła komputer kwantowy H2, który korzysta z kubitów w pułapce jonowej, natomiast wkład Microsoftu to oprogramowanie do wirtualizacji kubitów. W ramach testów użyto 30 z 32 dostępnych na H2 kubitów fizycznych i utworzono 4 kubity logiczne. Całość przetestowano uruchamiając 14 000 eksperymentów. Okazało się, że wszystkie wypadły bezbłędnie, nie wykryto żadnego błędu. Kolejne testy wykazały, że odsetek błędów generowanych przez system wynosi 1:100 000 (10-5), jest więc 800-krotnie niższy niż na maszynie H2 pracującej bez oprogramowania Microsoftu. Autorzy eksperymentu twierdzą, że stworzyli komputer kwantowy 2. poziomu, czyli taki, który charakteryzuje dość niski odsetek błędów oraz możliwość dalszego skalowania i poprawiania jakości pracy. « powrót do artykułu
  10. Jeśli to prawda, to mamy tutaj pierwszą od 25 lat prawdziwą wskazówkę odnośnie natury ciemnej energii, mówi astrofizyk Adam Riess, laureat Nagrody Nobla za odkrycie, że tempo rozszerzania się wszechświata jest coraz szybsze. Uczony odniósł się do opublikowanych danych z pierwszego roku obserwacji Dark Energy Spectroscopic Instrument (DESI). Możliwe, że mamy tutaj informacje wskazujące, iż ciemna energia podlega ewolucji, dodaje członek DESI, Dillon Brout. Naukowcy podkreślają, że jest zbyt wcześnie, by mówić o odkryciu. Jednak trzy różne zestawy również sugerują danych, że ciemna energia może nie być stałą kosmologiczną, a to z kolei ma olbrzymie znaczenie dla jednego z najpowszechniej uznawanych modeli kosmologicznych. Teleskop DESI został po raz pierwszy uruchomiony w 2019 roku. Proces kalibracji i weryfikacji działania instrumentu zakłóciła pandemia. Teleskop rozpoczął badania w połowie maja 2021 roku i właśnie opublikowano dane zebrane do czerwca 2022. Tych 12 miesięcy wystarczyło do stworzenia największej trójwymiarowej mapy wszechświata i przeprowadzenia najdoskonalszych pomiarów ciemnej energii. DESI stworzył bardziej szczegółową mapę niż wszystkie dotychczasowe instrumenty razem wzięte i jako pierwszy pozwolił na określenie tempa rozszerzania się wszechświata w okresie od 8 do 11 miliardów lat temu z precyzją lepszą niż 1%. Naukowcy pracujący przy DESI opublikowali i przygotowali do publikacji imponującą liczbę artykułów naukowych. Jesteśmy niesamowicie dumni z uzyskanych przez nas światowej klasy wyników oraz z faktu, że jesteśmy pierwszymi, którzy pokazują dane z badań nowej generacji nad ciemną energią. Jak dotychczas widzimy tutaj potwierdzenie najlepszych modeli kosmologicznych, dostrzegamy jednak potencjalnie interesujące różnice, które mogą wskazywać, że ciemna energia ewoluuje w czasie. W miarę napływu kolejnych danych różnice te mogą się potwierdzić lub zniknąć, dlatego niecierpliwie czekamy na rozpoczęcie analiz z trzyletniego okresu obserwacji, cieszy się dyrektor DESI Michael Levi z Lawrence Berkeley National Laboratory. Podstawowym modelem kosmologicznym jest Lambda CDM. Uwzględnia on ciemną energię (stała kosmologiczna lambda) oraz zimną ciemną materię (cold dark matter, CDM). Materia i ciemna energia wpływają na rozszerzanie się wszechświata, jednak w różny sposób. Otóż materia i ciemna materia spowalniają rozszerzanie, a ciemna energia przyspiesza ten proces. Względna ilość obu czynników wpływa na ewolucję wszechświata. Model ten dobrze wyjaśnia dotychczas uzyskiwane wyniki oraz obecny i przeszły wygląd wszechświata. Jednak gdy przyjrzymy się danym z DESI i porównamy je z danymi z wcześniejszych badań, widzimy pewne subtelne różnice. W tej chwili nie wiemy, czy są to jedynie fluktuacje statystyczne, które znikną wraz z pojawieniem się kolejnych danych, czy też kolejne dane potwierdzą istnienie tych różnic. Dane te powinny też doprecyzować inne informacje dostarczone przez DESI, które dotyczą stałej Hubble'a czy masy neutrina. DESI to wspaniały eksperyment dostarczający niesamowitych danych, zachwyca się Riess. W porównaniu z jednym z najważniejszych przeglądów nieba w historii, Sload Digital Sky Survey, DESI błyskawicznie zbiera dane. Niedawno instrument w ciągu tylko jednej nocy określił lokalizację niemal 200 000 galaktyk. Dotychczas żadne badania spektroskopowe nie dostarczyły nam tylu danych. Co miesiąc zbieramy informacje o ponad milionie galaktyk, mówi Nathalie Palanque-Delabrouille z Berkeley Lab. Dzięki temu już po roku naukowcy byli w stanie zmierzyć tempo rozszerzania się wszechświata w siedmiu różnych przedziałach czasowych. Zrekonstruowali historię rozszerzania się wszechświata w ciągu ostatnich 11 miliardów lat z precyzją wynoszącą 0,5%, a dla najstarszej z badanych epok, 8–11 miliardów lat temu, precyzja wyniosła rekordowe 0,82%. Takie pomiary są niezwykle trudne, a mimo to DESI po roku pracy dostarczył bardziej precyzyjnych wyników dotyczących tej wczesnej epoki niż projekt BOSS/eBOSS (Sloan Digital Sky Survey) po ponad 10 latach badań. Celem DESI jest sprawdzenie, jak wszechświat rozszerzał się w ciągu siedmiu epok swojej historii. Następnie naukowcy sprawdzają, jak dokonane pomiary pasują do modelu Lambda CDM. Z pierwszego roku badań wynika, że dane dostarczone przez DESI bardzo dobrze pasują do tego modelu, ale po uwzględnieniu innych danych, jak np. informacji o mikrofalowym promieniowaniu tła czy mapy supernowych, pojawiają się pewne niezgodności. Pojawia się rozbieżność z przewidywaniami Lambda CDM o 2.5, 3.5 lub 3.9 sigma, w zależności od tego, której z trzech map supernowych użyjemy. Czy jest to dużo? By to sobie uświadomić, posłużmy się przykładem. Gdy rzucamy monetą 100 razy możemy się spodziewać, że 50 razy wypadnie orzeł, a 50 razy reszka. Jeśli reszka wypadnie 60 razy mówimy o odchyleniu 2 sigma od średniej. Prawdopodobieństwo wystąpienia takiego wydarzenia całkowicie przypadkowo wynosi 1:20. Jeśli jednak reszka wypadnie 75 razy to prawdopodobieństwo uzyskania takiego wyniku całkowicie przypadkiem wynosi 1:2 000 000. To wartość 5 sigma, od której w fizyce mówimy o odkryciu. Odchylenie wynikające z badań DESI leży gdzieś pomiędzy wspomnianymi wartościami i w tej chwili nie potrafimy powiedzieć, czy to jedynie fluktuacja wyników czy dowód na to, że ciemna energia zmienia się w czasie. « powrót do artykułu
  11. Naukowcy z University of Cambridge stworzyli największą bazę ludzkich komórek piersi. Udało się dzięki temu określić wczesne mutacje w genach BRCA1 oraz BRCA2. Mutacje w tych genach zwiększają ryzyko nowotworów piersi i jajników. Naukowcy zauważyli, że komórki odpornościowe w tkankach piersi zdrowych kobiet, u których występują mutacje w BRCA1 i BRCA2, wykazują oznaki nieprawidłowego działania znanego jako „wyczerpanie”. Z tego powodu mogą nie być zdolne do oczyszczania organizmu z uszkodzonych komórek, z których może rozwinąć się nowotwór. Nasze badania wskazują, że w sytuacji wystąpienia mutacji BRCA układ odpornościowy nie jest w stanie zabijać uszkodzonych komórek w piersiach, mówi profesor Walid Khaled, jeden z autorów badań. Jesteśmy bardzo podekscytowani tym odkryciem, gdyż otwiera to możliwości działań prewencyjnych innych niż chirurgia u osób z mutacją BRCA. Już w tej chwili istnieją leki, które pozwalają na odblokowanie niedziałających komórek układu odpornościowego, ale dotychczas są one stosowane wyłącznie na późnych etapach choroby. Tak naprawdę nikt nie rozważał używania ich w profilaktyce chorób nowotworowych. Jednym z rozwiązań prewencyjnych jest chirurgiczne usunięcie piersi u osób, u których występuje podwyższone ryzyko rozwoju nowotworu. Profesor Khaled zwraca natomiast uwagę, że najlepszym sposobem  zapobiegania nowotworom jest przede wszystkim zrozumienie, w jaki sposób się one rozwijają. Dopiero dzięki temu będziemy mogli zidentyfikować te wczesne zmiany i podjąć odpowiednie działania. Nowotwory w późnym stadium rozwoju są zwykle bardzo nieprzewidywalne i trudne do opanowania. Opracowujemy coraz to lepsze i lepsze leki, a nowotwory wydają się opracowywać metody radzenia sobie z nimi, mówi Khaled. Autorzy badań pobrali próbki od 55 kobiet w różnym wieku i stworzyli katalog ponad 800 000 komórek, który zawiera wszystkie rodzaje komórek obecnych w piersiach. W ten sposób powstał Human Breast Cell Atlas, który został udostępniony innym badaczom. Atlas zawiera olbrzymią ilość informacji na temat czynników ryzyka rozwoju raka piersi, w tym na temat wpływu BMI, alkoholu, stosowania antykoncepcji itp. itd. Odkryliśmy, że istnieje wiele rodzajów komórek piersi, które się zmieniają. Zmiany zachodzą na przykład podczas ciąży, wraz z wiekiem, wpływają na nie też inne czynniki oraz połączenie tych czynników, a to wpływa na całkowite ryzyko rozwoju nowotworu, dodaje doktorant Austin Reed. Jednym z największych wyzwań odnośnie nowotworu piersi jest fakt, że tak naprawdę nie jest to jedna choroba, a wiele schorzeń. Do pojawienia się nowotworu piersi może prowadzić bardzo wiele mutacji genetycznych, a poszczególne mutacje wchodzą ze sobą w skomplikowane interakcje. Na przykład wiadomo, że ryzyko rozwoju raka piersi rośnie wraz z wiekiem, ale okazuje się, że ryzyko to jest znacznie mniejsze u kobiet, które zaszły w ciążę w młodym wieku. Autorzy nowych badań chcieli zrozumieć, w jaki sposób te czynniki ryzyka wchodzą w interakcje i opisali różne rodzaje komórek znajdujących się w ludzkich piersiach w zależności od stanu fizjologicznego organizmu. « powrót do artykułu
  12. Wbrew temu, co możemy usłyszeć od każdego matematyka, liczby pierwsze można przewidzieć, twierdzą naukowcy z City University of Hong Kong oraz North Carolina State University w USA. Przez tysiące lat – a pierwszym zachowanym studium liczb pierwszych są prace Euklidesa – uważano, że liczby takie pojawiają się przypadkowo, nie można z góry przewidzieć, jaka liczba będzie kolejną liczbą pierwszą. Dlatego też Way Kuo, jeden z autorów najnowszych badań, nazywa je rewolucyjnymi na polu teorii liczb pierwszych. Liczby pierwsze to liczby naturalne większe od 1, które bez reszty dzielą się tylko przez siebie same i przez 1. Kuo i jego koledzy, Han-Lin Li oraz Shu-Cherng Fang poinformowali o stworzeniu tablicy okresowej liczb pierwszych (PTP – Periodic Table of Primes). To metoda dokładnego i szybkiego przewidzenia, w którym miejscu pojawią się liczby pierwsze, mówi Kuo. PTP może zostać wykorzystana między innymi do faktoryzacji (rozkładu na czynniki) liczb całkowitych, identyfikowania liczb bliźniaczych – czyli dwóch liczb pierwszych, których różnica wynosi 2, przewidywania całkowitej liczby liczb pierwszych czy liczb bliźniaczych w konkretnym przedziale liczb. PTP może mieć olbrzymie znaczenie na polu bezpieczeństwa, gdyż liczby pierwsze są podstawą współczesnej kryptografii i bezpiecznego przesyłania danych. Artykuł The Periodic Table of Primes został opublikowany na łamach SSRN Electronic Journal. Dzięki temu każdy może się z nim zapoznać. Pozostaje pytanie, ile osób jest w stanie go zrozumieć, zatem jak długo potrwa weryfikacja i ewentualne potwierdzenie bądź odrzucenie PTP. « powrót do artykułu
  13. Przed tygodniem detektorysta Patryk Chmielewski znalazł na działce we wsi Mikułowice w województwie świętokrzyskim żelazną zbroję husarską. To niezwykle rzadkie odkrycie. Zbroje i ich elementy były cennymi pamiątkami rodzinnymi, trafiały do prywatnych i publicznych kolekcji. W polskich zbiorach muzealnych wyjątkowo trafiają się zbroje wyjęte z grobów. Nie ma prawdopodobnie żadnego przykładu zbroi, która zostałaby celowo zakopana. A tak właśnie było w przypadku zbroi z Mikułowic. Zbroja jest niekompletna. Brakuje w niej kirysu, który składał się napierśnika i naplecznika, czasem zastępowanego przez okrągłe umbo. Znalezisko składa się z półkolistego hełmu, szyszaka, z policzkami (osłonami boków twarzy) oraz częściowo zachowanym nakarczkiem. Jest też dwuczęściowy obojczyk chroniący szyję i kark, lewy naramiennik oraz dwa karwasze chroniące przedramiona. Elementy zbroi złożono jeden na drugim i zakopano na głębokości 60 centymetrów. Specjaliści wykluczają, by trafiły one do ziemi w czasie walk, gdyż po bitwie skrupulatnie zbierano pozostały oręż. W tym przypadku ktoś, z nieznanych nam powodów, zakopał elementy zbroi w wąskiej jamie i już po nie nie wrócił. Niekompletność znaleziska utrudnia jego datowanie, ale kształt szyszaka wskazuje na XVI wiek, prawdopodobnie na jego pierwszą połowę. W zbroi nie ma elementów dekoracyjnych z metali kolorowych, a to wskazuje, że raczej powstała w lokalnym warsztacie dla średnio zamożnego szlachcica. Jej właścicielem z pewnością nie był żaden możnowładca. Husaria, początkowo jazda lekkozbrojna, pojawia się w XVI wieku. W 2. połowie wieku XVII jest już elitarną jednostką ciężkozbrojną. Jako odrębny rodzaj jazdy została zlikwidowana w wojsku polskim w latach 70. XVIII wieku. « powrót do artykułu
  14. Autorzy najnowszych badań zauważyli, że 25% labradorów retriverów jest nosicielami mutacji genetycznej, która powoduje, że ciągle odczuwają głód i spalają mniej kalorii. To zaś oznacza, że są szczególnie podatne na rozwój otyłości. Właściciele takich psów muszą szczególnie zwracać uwagę na ich dietę oraz na poziom ich aktywności fizycznej. Wspomniana mutacja występuje w genie POMC, który odgrywa krytyczną rolę w regulacji głodu i użycia energii. Mutację POMC stwierdzono u 25% labradorów retrieverów i 66% flat coated retrieverów. Nowe badania pokazują, że mutacja ta głęboko zmienia sposób zachowania psów przy jedzeniu. Okazuje się, że psy, mimo iż nie potrzebują więcej jeść, czują się głodne pomiędzy posiłkami. Ponadto podczas odpoczynku zużywają o około 25% mniej energii niż psy bez tej mutacji. Odkryliśmy, że mutacja w genie POMC powoduje, że psy odczuwają głód. Mają więc skłonność do przejadania się, gdyż szybciej niż psy bez mutacji są głodne pomiędzy posiłkami, mówi główna autorka badań, doktor Eleanor Raffan z Wydziału fizjologii, rozwoju i neuronauk University of Cambridge. Psy z tą mutacją zmagają się z dwoma problemami. Nie tylko chcą jeść więcej, ale również potrzebują mniej kalorii, gdyż nie spalają ich tak szybko jak inne psy, dodaje uczona. Takie zwierzęta bez przerwy szukają możliwości zjedzenia czegoś, więc ich właścicielom bardzo trudno jest zadbać o ich prawidłowa wagę. Naukowcy radzą właścicielom, by odwracali uwagę swoich pupili od ciągle dręczącego ich uczucia głodu. Można to zrobić poprzez podzielenie ich dziennych porcji na więcej posiłków i podawanie im ich częściej, wsadzanie żywności do specjalnych zabawek czy chowanie jej w domu lub ogrodzie, by posiłek trwał dłużej. W badaniach wzięło udział 87 dorosłych labradorów. Wszystkie miały prawidłową wagę lub lekka nadwagę. Najpierw psy karmiono co 20 minut, aż same decydowały, że już nie chcą więcej. Wszystkie zjadały olbrzymie ilości pożywienia, ale psy z mutacją POMC wcale nie jadłu więcej, niż te bez mutacji. To wskazywało, że najadają się podobną ilością pożywienia. Następnie, innego dnia, psy otrzymały standardowe śniadanie. Dokładnie trzy godziny później przed zwierzętami położono kiełbasę zamknięta w przezroczystym plastikowym pojemniku z otworami. Psy widziały i czuły smakołyk, ale nie mogły go zjeść. Naukowcy zauważyli, że zwierzęta z mutacją POMC znacznie bardziej intensywnie próbowały zdobyć kiełbasę, co wskazuje, że odczuwały większy głód. W ramach trzeciego eksperymentu psy spały w specjalnych pomieszczeniach, gdzie wykonywano pomiary wydychanych przez nie gazów. Na tej podstawie badacze stwierdzili, że zwierzęta z mutacją POMC spalają w czasie odpoczynku 25% mniej kalorii, niż te bez mutacji. Mutacja genu POMC w podobny sposób wpływa na mózg ludzi i psów. W psim mózgu blokuje ona produkcję dwóch hormonów: β-MSH, odpowiedzialnego za zmniejszenie łaknienia oraz powiązanej z głodem beta-endorfiny. Nie zakłóca natomiast produkcji α-MSH, odpowiedzialnego m.in. za zdobywanie pożywienia oraz homeostazę energetyczną. Przeprowadzone właśnie badania laboratoryjne wykazały, że β-MSH i beta-endorfiny decydują o odczuwaniu głodu i zużyciu energii, a ich rola jest niezależna od obecności α-MSH. To przeczy wynikom uzyskanych na szczurach, na podstawie których wyciągnięto wniosek, że u ludzi otyłość spowodowana mutacją w POMC ma miejsce tylko przy braku α-MSH. Szczury nie wytwarzają β-MSH, natomiast organizmy ludzi i psów wytwarzają zarówno α- jak i β-MSH. To, co zaobserwowano zgadza się z doniesieniami o ekstremalnie silnym uczuciu głodu, jakie odczuwają osoby z mutacją POMC. Osoby takie zwykle są otyłe już w młodym wieku i cierpią na wiele problemów związanych z otyłością. « powrót do artykułu
  15. Uruchomiona właśnie platforma crowdsourcingowa ma za zadanie uratować przed zagładą wyjątkowy język – pontyjski, zwany przez jego użytkowników ρωμαικά, czyli „rzymski”. Przymiotnik „rzymski” nie jest tutaj przypadkowy, gdyż jest to język, który stanowi pomost pomiędzy czasami współczesnymi, a greką, którą mówiono w cesarstwie wschodniorzymskim, zwanym przez nas Cesarstwem Bizantyńskim. Jednak jest to nazwa stworzona przez historiografię nowożytną. Sami mieszkańcy tego państwa zwali je Cesarstwem Rzymian. I właśnie z jego mieszkańcami i językiem łączy nas język pontyjski. Platforma powstała pod kierunkiem profesor Ioanny Sitaridou z Wydziału języków współczesnych, średniowiecznych i lingwistyki Queen's College. Wniesie ona wkład w ogłoszoną przez ONZ Międzynarodową Dekadę Rdzennych Języków (2022–2032), której celem jest zwrócenie uwagi na trudną sytuację wielu rdzennych języków, ich zachowaniem promocję i rozpowszechnienie. Językiem pontyjskim posługuje się kilka tysięcy osób w tureckiej prowincji Trabzon na południu Morza Czarnego. To region, który w przeszłości należał do Cesarstwa Trapezuntu, istniejącego w latach 1206–1461. Rzeczywistą liczbą użytkowników jest jednak trudno ocenić, gdyż językiem tym posługuje się też diaspora, a w samej Turcji wyraźny jest proces porzucania pontyjskiego. Wielu użytkowników ma ponad 65 lat i coraz mniej młodych ludzi zna pontyjski. Na platformie Crowdsourcing Romeyka użytkownicy pontyjskiego mogą nagrać swoje wypowiedzi w tym języku. Pozyskiwanie próbek mowy to nowe narzędzie, które pomaga użytkownikom języka tworzyć bazę danych ich zagrożonego dziedzictwa, a naukowcom ułatwia dokumentowanie języka i zachęcanie użytkowników do docenienie swojego dziedzictwa lingwistycznego. Jednocześnie powstaje żywy pomnik języka, mówi profesor Sitaridou, która bada język pontyjski od 16 lat. Uruchomienie platformy zbiegło się z ogłoszeniem przez Sitaridou ważnych odkryć dotyczących pontyjskiego. Uczona poinformowała, że język ten pochodzi od greki hellenistycznej, a nie średniowiecznej, co czyni go odmiennym od pozostałych dialektów współczesnej greki. Język pontyjski to raczej siostra, a nie córka, greki nowożytnej, mówi uczona. O tym, jak ważna jest nowa platforma, niech świadczy fakt, że w ciągu ostatnich 150 lat jedynie 4 naukowców zbierało w Trabzonie dane dotyczące pontyjskiego. Profesor Sitaridou zgromadziła największą bazę nagrań audio i wideo. Współpracując z lokalnymi społecznościami, głównie z kobietami – bo to przede wszystkim one są nosicielkami tego języka – zebrała ponad 29 gigabajtów informacji i jest autorką 21 artykułów opublikowanych w recenzowanych pismach naukowych. Kluczowym elementem pracy Sitaridou są badania bezokolicznika w języku pontyjskim. Wszystkie inne współczesne dialekty greki przestały używać bezokolicznika występującego samodzielnie, w taki sposób, w jaki używano go w starożytnej grece. Jest on używany wraz ze słowem posiłkowym. Uczona udowodniła w ten sposób, że pontyjski przechował bezokolicznik i jego funkcje pochodzące z greki okresu hellenistycznego. We wszystkich współczesnych dialektach greki samodzielny bezokolicznik zniknął w średniowieczu. Greka zaczęła rozprzestrzeniać się wokół Morza Czarnego w VI wieku p.n.e. Jonowie z Attyki założyli na zachodnim wybrzeżu dzisiejszej Turcji Milet, z kolei koloniści z Miletu założyli na wybrzeżu Morza Czarnego Synopę, a jej mieszkańcy skolonizowali Trapezunt. Pont, czyli południowo-wschodnie wybrzeża Morza Czarnego stały się ważnym centrum języka greckiego. Podboje Aleksandra Wielkiego doprowadziły do utworzenia drugiego centrum, w Kapadocji. Jednak najważniejszym zjawiskiem dla rozszerzenia zasięgu greki stała się chrystianizacja. Mieszkańcy Pontu byli jednymi z pierwszych, którzy przyjęli chrześcijaństwo, są wspomniani w Nowym Testamencie. W 1461 roku Cesarstwo Trapezuntu zostało podbite przez Imperium Osmańskie. Konwersja na islam w Azji Mniejszej zwykle wiązała się z przejściem na język turecki. Jednak mieszkańcy dolin pozostali przy języku pontyjskim. A z powodu islamizacji zachowali niektóre cechy języka starożytnego, podczas gdy greckie społeczności, które pozostały przy chrześcijaństwie, zaczęły używać współczesnej greki. W dużej mierze przyczynił się do tego rozwój szkolnictwa w XIX i XX wieku, wyjaśnia profesor Sitaridou. Niedawno uczona rozpoczęła prace językoznawcze w okręgu Tonya, położonym na zachodzie prowincji Trabzon. Tam nigdy nie dotarł żaden badacz. Sitaridou odnotowała istnienie znaczących różnic gramatycznych wśród mieszkańców poszczególnych dolin. To wskazuje na różny przebieg islamizacji tych terenów. Wkrótce ukaże się jej praca, w której pani profesor argumentuje, że składnia zdań podrzędnych i przeczących w Tonya rozwijała się wedle innego wzorca niż w okręgu Çaykara ze wschodu prowincji Trabzon. W 1923 roku doszło do wymiany ludności pomiędzy Grecją a Turcją. Z Turcji wysiedlono chrześcijan mówiących językiem pontyjskim, pozostali tylko muzułmańscy użytkownicy tego języka. Dwie oddzielne grupy, ze wschodu i zachodu Trabzonu, które do niedawna nie miały pojęcia i swoim istnieniu. Sytuację użytkowników języka pontyjskiego dodatkowo utrudnia fakt, że niechętnie na nich patrzą zarówno nacjonaliści tureccy, jak i greccy. Dla tureckich nacjonalistów posługiwanie się w ich kraju innym językiem niż turecki jest sprzeczne z przynależnością narodową. Dla nacjonalistów greckich język pontyjski jest „zanieczyszczony” i sprzeczny z ideologią jednego języka greckiego używanego nieprzerwanie od starożytności. « powrót do artykułu
  16. W centrum odległej galaktyki nagle rozbłysła supermasywna czarna dziura i okazało się, że ma ona „czkawkę”. To pierwsze znane zjawisko tego typu. Członkowie międzynarodowego zespołu badawczego uważają, że najbardziej prawdopodobnym wyjaśnieniem tego zjawiska jest obecność mniejszej czarnej dziury, która krąży wokół supermasywnego towarzysza, wyrzucając do 8,5 doby materiał z jego dysku akrecyjnego. Taka hipoteza to wyzwanie dla dotychczasowych poglądów na dyski akrecyjne czarnych dziur, które są postrzegane jako dość jednolite skupiska materiału. Nowe badania sugerują, że mogą one być zróżnicowane i zawierać inne czarne dziury czy nawet gwiazdy. Sądziliśmy, że sporo wiemy o czarnych dziurach, ale to pokazuje, że jeszcze wiele musimy się nauczyć. Uważamy, że istnieją inne podobne systemy, potrzebujemy po prostu więcej danych, by je znaleźć, stwierdza Dheeraj Pasham z Kavli Institute for Astrophysics and Space Research. Odkrycia niezwykłego podwójnego układu czarnych dziur dokonano za pomocą ASAS-SN (All Sky Automated Survey for SuperNovae). To zespół 20 automatycznych teleskopów rozmieszczonych na obu półkulach, które codziennie dokonują przeglądu nieboskłonu w poszukiwaniu supernowych i innych przemijających zjawisk. W grudniu 2020 roku teleskopy zarejestrowały rozbłysk w galaktyce oddalonej o 800 milionów lat świetlnych. Galaktyka nagle pojaśniała 1000-krotnie. A stało się to w regionie nieboskłonu, który dotychczas wydawał się dość ciemny i spokojny. Informacja o rozbłysku została automatycznie rozesłana do astronomów i zobaczył ją Pasham. Uczony postanowił przyjrzeć się temu zjawisku za pomocą teleskopu NICER (Neutron star Interior Composition Explorer), umieszczonego na Międzynarodowej Stacji Kosmicznej. NICER monitoruje nieboskłon w poszukiwaniu rozbłysków w paśmie promieniowania rentgenowskiego. Zjawiska takie mogą świadczyć o aktywności gwiazd neutronowych czy czarnych dziur. Był w tym wszystkim łut szczęścia, gdyż powoli dobiegał końca roczny okres, w którym Pasham miał pozwolenie na kierowanie NICAR na wybrane przez siebie obiekty. Mogłem użyć tego teleskopu, albo stracić okazję na obserwację. Okazało się, że to mój najszczęśliwszy zawodowy przypadek, mówi uczony. NICER obserwował odległą galaktykę przez cztery miesiące, zanim jej jasność wróciła do normy. Gdy uczony bliżej przyjrzał się danym zauważył, że w bardzo wąskim zakresie promieniowania rentgenowskiego co 8,5 doby pojawiają się niewielkie spadki jasności. Wzorzec był podobny do tego, co można zaobserwować, gdy planeta przechodzi na tle gwiazdy, na krótko blokując część jej światła. Jednak żadna gwiazda nie byłaby w stanie zablokować rozbłysku całej galaktyki. Nie wiedziałem co to oznacza. Ten wzorzec nie pasował do niczego, co wiedzieliśmy o takich systemach, mówi Pasham. W końcu uczony trafił na artykuł opublikowany niedawno przez fizyków-teoretyków z Czech. Pisali oni, że teoretycznie jest możliwe, by wokół supermasywnej czarnej dziury w centrum galaktyki krążyła druga, znacznie mniejsza czarna dziura. Czescy uczeni stwierdzali, że taka czarna dziura okresowo przebijałaby się przez dysk akrecyjny większej towarzyszki, doprowadzając do rozrzucenia gazu. Potężne pola magnetyczne na południe i północ czarnej dziury powodowałyby, że gaz ten byłby kierowany w górę i w dół od dysku akrecyjnego. Za każdym razem, gdy mniejsza czarna dziura przebijałaby dysk akrecyjny, pojawiałby się strumień gazu. Gdyby zaś ten strumień był skierowany w stronę obserwującego teleskopu, to całe zjawisko wyglądałoby jak okresowe spadki jasności galaktyki – stwierdzali teoretycy z Czech. Byłem niesamowicie podekscytowany ich teorią. Od razu napisałem do nich maila z informacją, że zaobserwowałem to, co opisali, wspomina Pasham. Naukowiec wspólnie z czeskimi kolegami przeprowadzili symulacje z wykorzystaniem danych z NICER i okazało się, że wszystko do siebie pasuje. Symulacje wykazały, że badany przez nich system składa się z galaktyki, której supermasywna centralna czarna dziura ma masę około 50 milionów razy większą niż masa Słońca. Jest więc około 12 razy bardziej masywna niż czarna dziura w centrum Drogi Mlecznej. Wokół tej potężnej czarnej dziury może znajdować się rozproszony słabo widoczny dysk akrecyjny oraz mniejsza czarna dziura o masie od 100 do 10 000 mas Słońca. W grudniu 2020 roku jakiś trzeci obiekt, prawdopodobnie gwiazda, znalazł się zbyt blisko supermasywnej czarnej dziury i został rozerwany przez siły pływowe. Wywołany tym zjawiskiem nagły dopływ materiału do dysku akrecyjnego spowodował gwałtowne pojaśnienie całej galaktyki. Przez cztery miesiące supermasywna czarna dziura wchłaniała dodatkową materię, a mniejsza czarna dziura kontynuowała swą podróż wokół większego towarzysza. Regularnie wyrzucała przy tym materiał dysku akrecyjnego, a jego strumień był skierowany na wprost teleskopu NICER. Mamy tutaj wspaniały przykład, jak szczątki ze zniszczonej gwiazdy mogą rozświetlić wnętrze jądra galaktyki, które w innym przypadku pozostałoby dla nas ciemne. To tak, jakbyśmy wpuścili fluorescencyjny barwnik, by odnaleźć wyciek w rurociągu, mówi Richard Saxton z European Space Astronomy Centre, który nie był zaangażowany w badania. To pokazuje nam, że układy podwójne czarnych dziur mogą powszechnie występować w jądrach galaktyk. Ich poszukiwanie może być zadaniem przyszłych wykrywaczy fal grawitacyjnych, dodaje uczony. « powrót do artykułu
  17. Francuska Komisja Energii Atomowej i Energii Alternatywnych (CEA) zaprezentowała pierwsze skany ludzkiego mózgu wykonane za pomocą najpotężniejszej na świecie maszyny do rezonansu magnetycznego. Iseult MRI wykorzystuje pole magnetyczne o natężeniu 11,4 tesli. Maszyny używane w szpitalach generują pole o natężeniu 1,5 lub 3 tesli. Nowy skaner pozwala bardzo szybko uzyskać obraz o niezwykle dużej rozdzielczości. Dość wspomnieć, że w czasie krótszym niż 4 minuty Iseult MRI wykonuje obrazy o rozdzielczości 0,2 mm i grubości warstwy 1 mm. Standardowe MRI musiałyby pracować przez kilka godzin, by uzyskać tak szczegółowy obraz, wykonanie więc takiego skanowania u pacjenta jest praktycznie niemożliwe. Uzyskanie tak dużej rozdzielczości pozwoli na zdobycie niedostępnych dotychczas informacji o działaniu mózgu, zrozumienie w jaki sposób koduje on informacje czy poszukiwanie neuronalnych sygnatur stanu świadomości. Olbrzymia rozdzielczość nowej maszyny będzie miała wpływ na badania medyczne. Szczegółowe informacje, uzyskane dzięki nowemu skanerowi, wspomogą badania nad chorobami Parkinsona czy Alzheimera. Ponadto Iseult MRI ułatwi wykrywanie w mózgu sygnałów pochodzących z niektórych związków chemicznych, które trudno jest wykryć przy pomocy pola magnetycznego o niższym natężeniu. Mowa tutaj przede wszystkim o licie, który jest wykorzystywany do leczenia zaburzeń dwubiegunowych. Lepsza ocena umiejscowienia tego pierwiastka w mózgu umożliwi lepsze określenie efektywności leczenia. Możliwe będzie też dokładniejsze badanie wpływu molekuł zaangażowanych w metabolizm mózgu, takich jak glukoza czy glutaminianu, a to z kolei pozwoli badać wiele różnych chorób, od nowotworów po choroby neurodegeneracyjne. Dzięki projektowi Iseult otwierają się przed nami całkowicie nowe możliwości. Chcemy je wykorzystać. Wciąż konieczne są kolejne lata prac badawczo-rozwojowych nad metodami gromadzenia danych, musimy się upewnić, że uzyskujemy dane o najwyższej możliwej jakości. W latach 2026–2030 skupimy się na badaniu chorób neurodegeneracyjnych oraz chorób związanych z psychiatrią, jak schizofrenia i zaburzenia dwubiegunowe. Nauki poznawcze również będą w centrum naszych zainteresowań, zapowiada Nicolas Boulant, dyrektor ds. badań w CEA, który kieruje projektem Iseult. Iseult MRI to efekt ponad 20 lat prac badawczo-rozwojowych. Maszyna waży 132 tony, ma 5 metrów długości i 5 metrów szerokości, wykorzystuje 182 kilometry nadprzewodzących kabli, a przez cewkę przepływa prąd o natężeniu 1500 amperów. Wykorzystywany w skanerze magnes został schłodzony do temperatury -271,35 stopni Celsjusza za pomocą 7500 litrów ciekłego helu. « powrót do artykułu
  18. Pozostawianie świadectw archeologicznych in situ to preferowana metoda zachowywania znalezisk dla przyszłych pokoleń, które mogłyby badać je doskonalszymi metodami. Jednak odkrycie dokonane przez naukowców z University of York każe postawić pod znakiem zapytania jej wartość. Okazuje się bowiem, że zanieczyszczenie mikroplastikiem jest tak wielkie, iż jego fragmenty można znaleźć w próbkach archeologicznych pobranych nawet z głębokości 7 metrów. Nie można wykluczyć, że migrujące fragmenty plastiku są w stanie zniszczyć stanowiska archeologiczne. Coś, co dotychczas uznawaliśmy za dziewicze depozyty archeologiczne, gotowe do badań, są zanieczyszczone plastikiem. Dotyczy to również próbek pobranych i przechowywanych od końca lat 80. Przyzwyczailiśmy się już do plastiku w rzekach i oceanach. Tutaj jednak widzimy, że nasze dziedzictwo archeologiczne również zawiera te toksyczne elementy. Spróbujemy się dowiedzieć, na ile zagrażają one stanowiskom archeologicznym, mówi profesor John Schofield z Wydziału Archologii Univeristy of York. To właśnie ta uczelnia, we współpracy z University of Hull i York Archeology przeprowadziła badania, których wyniki opublikowano w Science of the Total Environment. David Jennings, dyrektor York Archeology, dodaje, że myślimy o mikroplastiku jako o współczesnym zjawisku, gdyż tak naprawdę głośno mówi się o nim od około 20 lat, jednak profesor Richard Thompson ujawnił w 2004 roku, że mikroplastik powszechnie pojawił się w oceanach w latach 60., po wielkim powojennym boomie produkcji plastiku. Nowe badania pokazują zaś, że mikroplastik infiltruje glebę, w tym istotne stanowiska archeologiczne. Ich autorzy zidentyfikowali bowiem 16 różnych rodzajów mikroplastiku zarówno we współecznych, jak i archiwalnych próbkach archeologicznych. Jenning wyjaśnia, czego obawiają się autorzy badań. Nasze najlepiej zachowane stanowiska archeologiczne, na przykład stanowisko wikingów w Coppergate, przetrwały do naszych czasów, gdyż przez ponad 1000 lat były pełne wody i panowały tam warunki beztlenowe. Mikroplastik zmienia chemię gleby i może potencjalnie wprowadzać elementy, które spowodują rozkład materii organicznej. Jeśli tak się rzeczywiście dzieje, to zachowywanie stanowisk in situ nie jest już najlepszą metodą. Uczony dodaje, że badania wpływu mikroplastiku na stanowiska archeologiczne powinny stać się priorytetem, gdyż te wytworzone przez człowieka związki chemiczne mogą mieć wpływ na stanowiska archeologiczne. « powrót do artykułu
  19. W nocy z 24 na 25 marca 1944 roku, po niemal roku kopania tunelu, 76 więźniów różnych narodowości uciekło z obozu jenieckiego Stalag Luft III. Wszyscy, z wyjątkiem trzech, zostali schwytani i w ciągu tygodnia – na osobisty rozkaz Hitlera – zamordowano 50 z nich. Z czasem na kanwie tej historii powstał słynny film ze Steve'em McQuinnem. Pracownicy brytyjskich The National Archives odkryli właśnie dokument sugerujący, że uciekinierzy mogli zostać zdradzeni. Kapitan lotnictwa kartograf Desmond Plunkett był 13. z uciekinierów opuszczających tunel. Nikt nie chciał uciekać jako 13., więc Plunkett się zgłosił. Został złapany na granicy z Austrią i spędził osiem miesięcy w więzieniu gestapo, zanim przeniesiono go do Stalag Luft I. W The National Archives znaleziono właśnie jego zeznania, które złożył po uwolnieniu z obozu w maju 1945 roku. Jest dwóch ludzi... to ich działania przyniosły zgubę 50 zamordowanym jeńcom. Trzeba ich znaleźć. To na pewno rodowici Anglicy. Muszą być osądzeni za kolaborację z wrogiem, stwierdził Plunkett w kwestionariuszu, który wypełniał każdy uwolniony jeniec. Doktor William Butler, ekspert ds. wojskowości i dyrektor Zbiorów Współczesnych w The National Archives mówi, że gdy Plunkett został oswobodzony z obozu jenieckiego, trafił do szpitala z powodu zaburzeń psychicznych wywołanych przez pobyt w więzieniu gestapo. Pewne poszlaki wskazują, że obwiniał siebie o śmierć 50 kolegów, gdyż podczas przesłuchania przez gestapo mógł coś przypadkiem powiedzieć. Jednak inni więźniowie zapewnili Plunketta, że nie mógł być winny, gdyż jeńcy zostali zamordowani zanim jeszcze trafił w ręce niemieckiej tajnej policji. W filmie „Wielka ucieczka” na postaci Plunketta wzorowany jest kapitan Colin Blythe grany przez Donalda Plreasence'a. Blythe rysuje dla uciekinierów 2500 map. Pleasence stworzył swoją postać częściowo na własnych doświadczeniach. Był radiooperatorem w bombowcach RAF, został zestrzelony nad Francją w sierpniu 1944 roku i trafił do Stalag Luft I. « powrót do artykułu
  20. Spokojnych Świąt Wielkanocnych. Dużo zdrowia, radości i odpoczynku. Ania, Jacek i Mariusz « powrót do artykułu
  21. Wyobraź sobie siebie jako badacza nieodkrytych krain, gdzie każdy krok w internecie to krok po cienkim lodzie nadciągających zagrożeń i cyberbezpieczeństwa. W tej podróży darmowy VPN służy jako twój osobisty tunel, mistrzowsko przeprowadzający cię przez niebezpieczeństwa cyfrowego świata, chroniąc cię przed łapczywymi spojrzeniami i zachowując twoją prywatność nietkniętą. Rozdział 1: Szyfrowanie – Magiczna Tarcza Przeciwko Cybersmokom Korzystanie z VPN można porównać do założenia niewidzialnej peleryny, pod którą ukryte są twoje dane osobowe. Jak magiczna tarcza chroniąca rycerza przed ogniem smoka, szyfrowanie danych VPN chroni twoje prywatne informacje przed cyberatakami. Pomyśl o każdym bicie i bajcie twojej cyfrowej komunikacji jak o wiadomości zamkniętej w magicznym kokonie, niedostępnym dla tych, którzy pragną poznać twoje sekrety. Rozdział 2: Podróż przez Granice – Omijanie Cyfrowych Barier VPN daje ci klucze do wszystkich drzwi do świata treści, pozwalając ci swobodnie przemieszczać się między krajami bez cyfrowych wiz. To jak posiadanie osobistego magicznego portalu, który natychmiast przenosi cię tam, gdzie chcesz być, niezależnie od geograficznych ograniczeń. Czy to dostęp do bibliotek serwisów streamingowych, czy czytanie materiałów ograniczonych w twoim kraju, darmowy VPN otwiera świat bez granic. Rozdział 3: Praktyczna Magia – Porady dla Początkujących Czarodziejów VPN Wybór niezawodnego VPN to jak wybór swojego pierwszego magicznego różdżki. Potrzebujesz solidnego narzędzia, które będzie ci służyć wiernie i prawdomównie. Szukaj usług z polityką zerowego rejestrowania, silnym szyfrowaniem i wysoką prędkością. I pamiętaj, najlepszą ochroną jest twoja wiedza i czujność. Zawsze bądź czujny wobec swojego cyfrowego życia. Podsumowanie: Twój Osobisty Szlak do Bezpiecznego Cyfrowego Świata Weź swoje VPN na swoje następne przygody w internecie. Niech będzie twym niezawodnym towarzyszem, chroniącym cię przed cyberzagrożeniami i poszerzającym horyzonty twojego cyfrowego świata. Razem z nim nie jesteś tylko badaczem internetu; stajesz się władcą swojej cyfrowej przyszłości, zdolnym podróżować przez cyberprzestrzeń z pewnością i bezpieczeństwem. « powrót do artykułu
  22. Realme to chińska marka smartfonów, która szybko zdobyła popularność, oferując innowacyjne technologie w przystępnych cenach. Chiński gigant dostarcza wysokiej jakości urządzenia, dzięki czemu cieszy się dobrą opinią użytkowników. Smartfony Realme, dostępne również w ofercie Play, łączą w sobie dwie kluczowe cechy. Oferują zarówno zaawansowane funkcje, jak i atrakcyjny design, stanowiąc idealny wybór dla osób szukających wydajnego telefonu bez nadszarpnięcia budżetu. Chcesz wiedzieć więcej o firmie i telefonach Realme? Zapraszamy do lektury artykułu. Spis Treści: Realme – chiński gigant na rynku smartfonów Czy telefony Realme cieszą się dobrą opinią? Smartfony Realme – innowacja w przystępnej cenie Realme – idealny wybór dla kogo? Realme, czyli marka warta uwagi   Realme – chiński gigant na rynku smartfonów Marka Realme została założona w 2018 roku i szybko stała się jednym z czołowych producentów smartfonów w Chinach i na świecie. Jako część większej korporacji BBK Electronics, która posiada również takie marki jak OnePlus, Vivo, i Oppo, Realme ma możliwość korzystania z bogatego doświadczenia i innowacyjnych technologii. To właśnie dzięki temu oferuje użytkownikom wysokiej jakości smartfony. Co jeszcze wyróżniło firmę na tle innych? Przystępne ceny smartfonów, które jednocześnie oferowały wiele ciekawych i mocno zaawansowanych funkcjonalności. To idealne rozwiązanie dla młodych osób, które nie tylko chcą się wyróżniać ciekawym designem, ale także często mogą pozwolić sobie jedynie na budżetowe opcje. Realme to marka, która nieustannie się rozwija i zachęca do przetestowania urządzeń, które są innowacyjne, jakościowe i po prostu – tanie.   Czy telefony Realme cieszą się dobrą opinią? Telefony Realme cieszą się bardzo pozytywnymi opiniami użytkowników na całym świecie. Zdobywają popularność i uznanie, prawdopodobnie m.in. ze względu na fakt koncentrowania się na młodych konsumentach i ich potrzebach. Oferują to, co najlepsze – innowacyjne rozwiązania i funkcje jak np. 5G, ekran AMOLED, a do tego ciekawy, oryginalny design. Wszystko to zazwyczaj można spotkać jedynie w droższych modelach. Dobra opinia wynika również z długotrwałych baterii, nowoczesnego i płynnie działającego systemu oraz dobrych aparatów.   Smartfony Realme – innowacja w przystępnej cenie Smartfony Realme dowodzą temu, że zaawansowana technologia może być dostępna w przystępnej cenie. Marka ta oferuje szeroką gamę urządzeń, od modeli budżetowych po flagowe, każdy wyposażony w funkcje zarezerwowane dotąd dla droższych smartfonów. Realme wyróżnia stosowanie wysokiej jakości procesorów, które pochodzą od najlepszych producentów. W urządzeniach od tej marki znajdziemy zarówno procesory MediaTeka, jak i Snapdragon. Użyte modele są identyczne, jak we flagowych komórkach, które kosztują o wiele większe pieniądze. Tak jak wspomnieliśmy, Realme to również innowacyjny wyświetlacz. Ekran AMOLED to gwarancja wysokiej jakości obrazu i nasycenia kolorów. Można go spotkać w większości smartfonów tej marki, niezależnie od reszty podzespołów. Smartfony Realme są skierowane do młodej grupy odbiorców. Muszą więc charakteryzować się bardzo dobrym aparatem fotograficznym. Mimo że nie zawsze tak było, a producent musiał dojść do jakości na poziomie najlepszych marek, to na ten moment oferuje on główny aparat o matrycy 200 Mpix. Ogromną zaletą smartfonów Realme jest możliwość szybkiego ładowania urządzenia. Co ciekawe, marka pierwsza na rynku oferował możliwość ładowania aż 150 W. To funkcjonalność, która zdecydowanie przyda się młodym osobom korzystającym intensywnie z urządzeń tego typu zarówno do rozrywki, komunikacji, jak i nauki oraz pracy.   Realme – idealny wybór dla kogo? Tak jak wspomnieliśmy, smartfony Realme to zaawansowane technologie, oryginalny design i przystępna cena. Przyciągają więc zarówno osoby młode, jak i starsze, którym zależy na dbaniu o budżet. Co ciekawe, smartfony Realme sprawdzą się też u osób, które pasjonują się fotografią mobilną, ponieważ producent oferuje w swoich modelach aparaty o wysokiej rozdzielczości. Natomiast funkcje szybkiego ładowania sprawiają, że z urządzeń tej marki korzystają chętnie także osoby, będące w ciągłym ruchu. Takie, które nie mogą i nie chcą tracić czasu na częste i długie ładowanie smartfona. Dodatkowo modele Realme z wysokiej jakości wyświetlaczami i potężnymi procesorami, docenią także gracze. Urządzenia tak wyposażone zapewniają płynną rozgrywkę bez opóźnień.   Realme, czyli marka warta uwagi Realme to marka, która zdecydowanie zasługuje na uwagę! Innowacyjne podejście do produkcji smartfonów sprawia, że wiele osób chce przetestować urządzenia od tego producenta. Jest to ciekawa przeciwwaga dla flagowców, które mimo bardzo dobrych parametrów, charakteryzują się często wręcz abstrakcyjnie wysokimi cenami. « powrót do artykułu
  23. Po ponad 30 latach archeologom z National Park Services udało się zidentyfikować okręt wojenny, którego szczątki odkryto w 1993 roku na terenie Dry Tortugas National Park. Okazał się nim XVIII-wieczny brytyjski HMS Tyger. Ta zwodowana w 1647 roku fregata o 50 działach zatonęła w 1742 roku, gdy osiadła na rafie na Dry Tortugas. Wydarzenie miało miejsce podczas wojny o ucho Jenkinsa, jaka toczyła się w latach 1739–1748 w Ameryce Północnej pomiędzy Wielką Brytanią a Hiszpanią. Załoga HMS Tygera podjęła się heroicznej walki o przetrwanie. Po tym, jak okręt osiadł na rafie, jego niemal 300-osobowa załoga spędziła 66 dni na niewielkiej bezludnej wysepce Garden Key. Nie było to łatwe. Człon „Dry” pochodzi bowiem od braku wody pitnej na wyspach. Brytyjscy marynarze, korzystając ze szczątków swojego okrętu, wznieśli na Garden Key pierwsze fortyfikacje. Powstały one 100 lat przed znajdującym się tam obecnie Fort Jefferson. Marynarze poszukiwali pomocy, zbierali zapasy z okrętu i próbowali lokalizować wrogie hiszpańskie okręty. Po nieudanym ataku na pewną hiszpańską jednostkę podpalili pozostałości po HMS Tyger – chcieli w ten sposób upewnić się, że działa nie wpadną w ręce wroga – i na zbudowanych ze szczątków Tygera łodziach ruszyli w kierunku Port Royal na Jamajce. Mieli do przebycia 1125 kilometrów otwartych wód oceanicznych. To właśnie dzięki działom udało się ostatecznie zidentyfikować HMS Tyger. Prowadzący pod wodą prace archeolodzy znaleźli pięć dział, które spoczęły na dnie morza w odległości około 450 metrów od miejsca zatonięcia okrętu. Najprawdopodobniej działa wypadły za burtę, gdy jednostka uderzyła w rafę. Z zachowanej książki pokładowej wiemy, że gdy marynarze postanowili zatopić okręt, najpierw uwolnili go z rafy, by pływał, i dopiero wówczas podłożyli ogień. Znaleziska archeologiczne są ekscytujące, a w tym przypadku mogliśmy powiązać znalezisko z zachowaną relacją na piśmie. Pozwala nam to opowiedzieć historię ludzi, którzy byli tu przed nami. Ta historia to przykład wytrzymałości i przetrwania, mówi dyrektor Dry Tortugas National Park James Crutchfield. « powrót do artykułu
  24. Odkryj kluczowe czynniki, które należy wziąć pod uwagę podczas wyboru odpowiedniego hurtowego dostawcy kosmetyków. Zapewnij sobie udany wybór i zbuduj trwałe relacje z zaufanym partnerem biznesowym  !RCOL Jak wybrać odpowiedniego hurtowego dostawcę kosmetyków: Kluczowe czynniki do rozważenia Wybór dostawcy kosmetyków hurtowych odnosi się do decyzji przedsiębiorstwa lub sprzedawcy detalicznego dotyczącej wyboru dostawcy, który zapewni im kosmetyki w dużych ilościach. To kluczowy krok dla biznesu kosmetycznego, ponieważ ma wpływ na jakość produktów, ceny hurtowe, terminy dostaw hurtowych kosmetyków oraz relacje biznesowe. Wybór odpowiedniego dostawcy może przyczynić się do sukcesu firmy poprzez zapewnienie wysokiej jakości produktów w konkurencyjnych cenach i zadowalającym poziomie obsługi klienta. Lotana to najwygodniejsza hurtownia kosmetyczna, oferująca duży wybór produktów w niskich cenach oraz możliwość łatwego złożenia zamówienia i dokonania zakupu.   Kluczowe czynniki do rozważenia Zakres oferowanych produktów i ich jakość to kluczowe czynniki wyboru dostawcy kosmetyków. Przedsiębiorstwo powinno upewnić się, że hurtowy dostawca kosmetyków oferuje szeroki wybór produktów, które odpowiadają potrzebom ich klientów. Jakość produktów kosmetycznych hurtowych jest również istotna, ponieważ wpływa na reputację firmy i zadowolenie klientów. Przed dokonaniem wyboru dostawcy, ważne jest przeprowadzenie analizy próbek produktów oraz zapoznanie się z opiniami innych klientów, aby upewnić się, że oferowane produkty spełniają ustalone standardy jakości.   Ocena potencjalnego dostawcy Przed podjęciem decyzji dotyczącej wyboru hurtowego dostawcy kosmetyków, kluczowe jest dokładne przeanalizowanie własnych potrzeb i oczekiwań biznesowych. Firmy powinny zdefiniować rodzaje kosmetyków, których potrzebują, ilości, jakie chcą zakupić, oraz oczekiwana cena hurtowa kosmetyków i poziom jakości. Ważne jest również uwzględnienie specyficznych preferencji klientów oraz trendów rynkowych. Przeprowadzenie tej analizy pomoże w skoncentrowaniu się na poszukiwaniu dostawcy, który najlepiej odpowiada tym potrzebom i oczekiwaniom. Badanie reputacji i doświadczenia dostawcy kosmetyków jest kluczowym krokiem przy wyborze hurtowego dostawcy. Firmy powinny przeprowadzić dokładne badania, aby poznać opinie innych klientów oraz ocenić doświadczenie dostawcy na rynku. Można to zrobić poprzez czytanie recenzji, analizę preferencji, sprawdzenie ich historii biznesowej oraz ocenę ich wiarygodności i solidności. Dobry dostawca będzie miał pozytywne opinie klientów, długoletnie doświadczenie na rynku i będzie gotowy udzielić wszelkich niezbędnych informacji oraz wsparcia w zakres produktów kosmetycznych hurtowych i usług.   Wskazówki praktyczne Ocena dostawców kosmetyków może być oparta na różnych kryteriach. Oto lista potencjalnych kryteriów, które warto uwzględnić: Jakość produktów: Sprawdzenie, czy dostarczane produkty lub świadczone usługi spełniają określone standardy jakościowe i oczekiwania klientów. Zgodność z wymaganiami regulacyjnymi: Upewnienie się, że dostawca przestrzega wszystkich wymogów prawnych i regulacji dotyczących branży oraz zapewnia odpowiednie certyfikaty i dokumentację. Cena: Analiza cenowa wartości produktu oferowana przez dostawcę w porównaniu do innych dostawców na rynku, przy zachowaniu równowagi między ceną a jakością. Logistyka dostawy kosmetyków hurtowych: Ocena możliwości dostawcy w zapewnieniu wymaganej infrastruktury technicznej i logistycznej, takiej jak transport, składowanie i obsługa zamówień. Reputacja i referencje: Sprawdzenie opinii innych klientów oraz referencji dostawcy, aby ocenić jego reputację i wiarygodność na rynku. Warunki płatności i dostawy kosmetyków hurtowych: Przejrzyste ustalenie warunków umowy handlowej, w tym cen, terminów płatności, warunków dostawy i innych kluczowych kwestii, oraz zdolność do negocjowania korzystnych warunków dla firmy. Analiza kosztów i korzyści jest kluczowym elementem przy wyborze hurtowego dostawcy kosmetyków. Obejmuje ona porównanie kosztów związanych z zakupem od danego dostawcy oraz korzyści, jakie firma może uzyskać z tego wyboru. Oto kilka aspektów do uwzględnienia podczas przeprowadzania tej analizy: Koszty zakupu. Koszty operacyjne. Elastyczność i terminowość dostaw. Rabaty i promocje. Relacje biznesowe. Zrównoważone praktyki.   Zakończenie Przy wyborze hurtowego dostawcy kosmetyków kluczowymi czynnikami są jakość produktów, terminowość dostaw, konkurencyjne ceny, obsługa klienta w hurtowej sprzedaży kosmetyków oraz zgodność z regulacjami branżowymi. Wybór odpowiedniego dostawcy kosmetyków może otworzyć wiele perspektyw rozwoju współpracy. Oto kilka możliwych perspektyw: Rozszerzenie asortymentu: Możliwość poszerzenia oferty o nowe produkty kosmetyczne, co może przyciągnąć nowych klientów i zwiększyć lojalność dotychczasowych. Poprawa jakości: Dostęp do wyższej jakości produktów może pozytywnie wpłynąć na postrzeganie marki przez klientów oraz zwiększyć ich zaufanie do oferowanych produktów. Oszczędność czasu i zasobów: Współpraca z dostawcą o solidnej reputacji i sprawdzonych praktykach może przyczynić się do redukcji czasu i zasobów poświęconych na poszukiwanie nowych dostawców i rozwiązywanie problemów związanych z jakością czy terminowością dostaw. Negocjacje cenowe: Długoterminowa współpraca z odpowiednim dostawcą może umożliwić negocjacje korzystniejszych warunków cenowych, co przyczyni się do zwiększenia rentowności biznesu. Partnerstwo strategiczne: Możliwość nawiązania partnerskiej relacji z dostawcą może otworzyć drzwi do wspólnych inicjatyw i strategii rozwoju hurtowej sprzedaży kosmetyków, co może przynieść dodatkowe korzyści dla obu stron. Współpraca z odpowiednim dostawca kosmetyków premium hurtowych może otworzyć wiele możliwości rozwoju biznesu i umocnić pozycję firmy na rynku kosmetycznym. Zalecamy również przeczytanie: Jak wybrać odpowiednie produkty Daeng Gi Meo Ri dla swojego rodzaju włosów « powrót do artykułu
  25. Wśród XIX-wiecznych listów z Kolekcji Papierów Wartościowych brytyjskich Archiwów Narodowych (TNA) odkryto doskonale zachowany 217-letni sweter wykonany wg tradycyjnego farerskiego wzoru. Miała go otrzymać kobieta z Danii, ale przesyłka nigdy nie dotarła do celu, bo statek, który ją przewoził, został zatrzymany przez Royal Navy podczas bitwy pod Kopenhagą (1807). Nadawcą był stolarz Niels C. Winther z Thorshavn, a odbiorcą P. Ladsen z Kopenhagi. Do paczki dodano liścik w języku duńskim: moja żona łączy pozdrowienia, dziękując za ryż do puddingu. Przesyła pańskiej narzeczonej ten sweter. Ma nadzieję, że jej tym nie urazi. Mimo że dopasowany w talii ubiór z dekoltem w serek i rękawami 3/4 przypomina sweter stanowiący część kobiecego narodowego stroju farerskiego, zawartość przesyłki opisano jako sweter (ubiór) do spania. Współpracująca z TNA Margretha Nónklett z Narodowego Muzeum Wysp Owczych (Tjóðsavn Føroya) podkreśla, że to ekscytujące odkrycie. Zachowało się niewiele takich egzemplarzy, w dodatku ani jednego nie wykonano wg tego wzoru. Sweter zrobiono w domu z ręcznie farbowanej wełny. Paczka Winthera wypłynęła z Thorshavn 20 sierpnia 1807 r. na pokładzie statku towarowego Anne Marie. Kapitan Jurgen S. Toxsvaerd nie miał pojęcia o rozpoczęciu operacji sił brytyjskich przeciw stolicy Danii. Drugiego września u wybrzeży Norwegii Anne Marie została zaatakowana przez HMS Defence. Brytyjska załoga wdarła się na pokład statku handlowego. Toxsvaerd i jego podwładni dostali się do niewoli, a ładunek i pocztę zarekwirowano. Po uwolnieniu w Kopenhadze Toxsvaerd ujawnił, że transportował 49 tys. par wełnianych pończoch, 8 ton suszonych ryb, 100 pudełek świec, 250 beczek łoju, 19 beczek tranu oraz 10 beczek piór. W jednym z listów przewożonych na Anne Marie w workach pocztowych odkryto banknoty (rigsdalery). W ich pliku znajdowało się 18 srebrnych monet, w tym szylingi z okresu panowania Fryderyka III Oldenburga. W komunikacie prasowym TNA napisano, że 2 inne paczki zawierały ziarno. Specjaliści otworzyli jedną z nich i przekonali się, że to jęczmień zwracany nadawcy ze względu na złą jakość. W notatce narzekano, że [spośród 416 odebranych beczek] w 399 jęczmień był w jakimś stopniu uszkodzony, a 25 beczek było w tak złym stanie, że nie dało się ich sprzedać. Drugą paczkę pozostawiono w oryginalnym stanie. Kolejna przesyłka zawierała damskie wełniane kolanówki. Inna paczuszka kryła zaś w sobie próbkę zielonej tkaniny pończoszniczej. W innym z listów znaleziono drobne próbki tkaniny. Warto dodać, że w XVI wieku królowie Danii ustanowili własny monopol na handel z Wyspami Owczymi. Często jednak przekazywali to prawo prywatnym przedsiębiorcom. W 1709 roku król Fryderyk IV ostatecznie przejął kontrolę nad monopolem od rodziny Gabel, której został on udzielony w 1662 roku. Królewski monopol działał za pośrednictwem jedynego sklepu na Wyspach. W 1830 roku otwarto trzy kolejne sklepy, które należały bądź były pod kontrolą Duńskiego Królewskiego Monopolu Handlowego. Królewski monopol na handel z Wyspami Owczymi został oficjalnie zniesiony w 1856 roku. Statek Anne Marie był jednym z 2, które na początku XIX w. wykorzystywano do przewozu towarów i poczty. Przesyłka ze swetrem została otwarta w ramach Prize Papers Project. Jego celem jest skatalogowanie i digitalizacja dokumentów oraz przedmiotów skonfiskowanych wyrokiem Wysokiego Sądu Admiralicji w latach 1652–1815. Sąd ten decydował m.in. o tym, czy statki i okręty przejęte przez Royal Navy w czasie wojny zostały zajęte zgodnie z prawem i określał, co ma się stać z zajętą jednostką oraz jej ładunkiem. Sąd ten pojawił się jako oddzielny organ sądownictwa angielskiego prawdopodobnie w 1340 roku, po bitwie pod Sluys. Początkowo zajmował się kwestiami piractwa oraz łupów wojennych, z czasem jego kompetencje zostały rozszerzone. Praktyka zajmowania cudzych statków i okrętów była szeroko rozpowszechniona szczególnie w XVII i XVIII wieku. W przeciwieństwie do piractwa, była ściśle regulowana. Zasady, przestrzegane przez wszystkie strony, określały, co i w jakich okolicznościach można legalnie zająć. Statek czy okręt mógł zostać zdobyty tylko wówczas, gdy należał do wrogiego państwa lub wspierał jego wysiłki wojenne. A ostateczną decyzję odnośnie do legalności zajęcia jednostki podejmowały sądy. Marynarze musieli składać przysięgę i ściśle przestrzegać procedur mówiących, że wszystko, co znaleziono na pokładzie zajętej jednostki, zostanie zachowane, by mogło zostać przedstawione w sądzie jako dowód. Wszelkie dokumenty z zajęć uznanych za legalne były następnie składane w archiwach brytyjskiej Admiralicji, wraz z odpowiednimi dokumentami sądowymi. Jak ujawniono na witrynie Prize Papers Project, dokumenty z ponad 35 000 zdobytych statków i okrętów są przechowywane w ponad 4000 skrzyń. Jest wśród nich co najmniej 160 tys. niedostarczonych listów, z których wiele pozostało nieotwartych do dnia dzisiejszego. Znajdziemy tam też książki, dokumenty sądowe, handlowe, kolonialne, morskie czy notatki. Dotychczas badacze zidentyfikowali 19 języków, w których je spisano. To ogromne bogactwo informacji o przeszłości, zatrzymane w czasie archiwum życia codziennego, działań zbrojnych i przedsięwzięć gospodarczych. Projekt digitalizacji tego imponującego archiwum jest prowadzony przez brytyjskie The National Archives i niemiecki Uniwersytet w Oldenburgu, a współfinansuje go Akademia Nauk w Getyndze. Ma on potrwać 20 lat. W tym czasie zostanie przeprowadzona digitalizacja 3,5 mln dokumentów oraz różnych drobnych przedmiotów, m.in. kluczy, kart do gry, biżuterii czy tekstyliów. « powrót do artykułu
×
×
  • Dodaj nową pozycję...