Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36793
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    211

Zawartość dodana przez KopalniaWiedzy.pl

  1. Naukowcy z Uniwersytet w Tel Awiwie szukają przyczyny masowego wymierania jeżowców w Morzu Śródziemnym i Zatoce Akaba. W ciągu kilku miesięcy wymarła cała populacja gatunku Diadema setosum zamieszkująca Zatokę Akaba. Badania wykazały, że podobne zjawisko zachodzi również w całym regionie, w tym u wybrzeży Turcji, Grecji, Arabii Saudyjskiej, Egiptu i Jordanii. Tymczasem jeżowce, a szczególnie Diadema setosum, są kluczowym gatunkiem niezbędnym do prawidłowego funkcjonowania raf koralowych. Uczeni sądzą, że wśród jeżowców panuje epidemia wywołana przez orzęski, które przedostały się Morza Śródziemnego na Morze Czerwone. Wszczęto alarm i specjaliści zastanawiają się, jak uratować izraelskie rafy koralowe. Najpierw zaobserwowano, że w ciągu kilku tygodni wyginęły wszystkie Diadema setosum w jednym z północnych regionów Zatoki. Początkowo sądziliśmy, że to jakieś zanieczyszczenie, zatrucie, może gdzieś doszło do wycieku, z jakiegoś zakładu przemysłowego czy hotelu na północy Zatoki Akaba. Gdy jednak sprawdziliśmy inne miejsca, okazało się, że to nie jest lokalny incydent. Wszystko wskazywało na szybko rozprzestrzeniającą się epidemię. Koledzy z Arabii Saudyjskiej poinformowali nas o podobnych przypadkach. Padły nawet jeżowce, które hodujemy dla celów badawczych w akwariach w naszym Instytucie Międzyuniwersyteckim i jeżowce z Underwater Observatory Marine Park. Patogen prawdopodobnie przedostał się przez system pompujący wodę. To szybka, brutalna śmierć. W ciągu dwóch dni ze zdrowego jeżowca pozostaje szkielet ze znaczącymi ubytkami tkanki. Umierające jeżowce nie są w stanie się bronić przed rybami, te się na nich żywią, co może przyspieszyć rozprzestrzenianie się epidemii, mówi główny autor badań, doktor Omri Bronstein z Wydziału Zoologii Uniwersytetu w Tel Awiwie. Doktor Bronstein od lat bada rafy koralowe pod kątem występowania na nich gatunków inwazyjnych. Jednym z gatunków, na których się skupiał jest właśnie D. setosum, czarny jeżowiec o wyjątkowo długich kolcach. To gatunek rodzimy Indo-Pacyfiku, który dzieli się na dwa klady. Jeden występujący na zachodzie Pacyfiku i u wschodnich wybrzeży Afryki i drugi zamieszkujący Morze Czerwone oraz Zatokę Perską. Wybudowanie Kanału Sueskiego otworzyło tropikalnym gatunkom z Indo-Pacyfiku drogę na Morze Śródziemne. D. setosum został zaobserwowany w tym akwenie po raz pierwszy w 2006 roku u wybrzeży Turcji. Od tamtej pory gatunek zwiększył swój zasięg na cały Lewant oraz Morza Jońskie i Egejskie. Globalne ocieplenie dodatkowo zaś przyspiesza inwazję gatunków tropikalnych na wschodnie regiony Morza Śródziemnego. Jeżowce, a w szczególności Diadem setosum, to kluczowe gatunki zapewniające zdrowie rafom koralowym. Są one ogrodnikami raf. Żywią się glonami, zapobiegając zaduszeniu przez nie koralowców, z którymi konkurują o dostęp do światła. Niestety jeżowce te nie występują już w Zatoce Akaba, a zasięg ich wymierania szybko rozszerza się na południe, dodaje Bronstein. Izraelczycy, po otrzymaniu pierwszych informacji o pojawieniu się na Morzu Śródziemnym inwazyjnego D. setosum, przystąpili do badań nad intruzem. W 2016 roku po raz pierwszy zauważyli ten gatunek u śródziemnomorskich wybrzeży Izraela. Od 2018 odnotowują gwałtowny rozrost jego populacji. Ledwo jednak rozpoczęliśmy badania podsumowujące inwazję jeżowców na Morze Śródziemne, a zaczęliśmy otrzymywać informacje o ich nagłym wymieraniu. Można stwierdzić, że wymieranie inwazyjnego gatunku nie jest niczym niekorzystnym, ale musimy brać pod uwagę dwa zagrożenia. Po pierwsze, nie wiemy jeszcze, jak to wymieranie wpłynie na gatunki rodzime dla Morza Śródziemnego. Po drugie, i najważniejsze, bliskość Morza Śródziemnego i Czerwonego zrodziła obawy o przeniesienie się patogenu na na rodzimą populację jeżowców na Morzu Czerwonym. I tak się właśnie stało, wyjaśnia Bronstein. To, co dzieje się obecnie na Morzu Śródziemnym i Czerwonym przypomina zjawiska znane z Karaibów. W 1983 roku nagle wymarły tam jeżowce, a rafy koralowe zostały zniszczone przez glony. W ubiegłym roku sytuacja się powtórzyła. A dzięki nowym technologiom i badaniom przeprowadzonym przez naukowców z Cornell University wiemy, że przyczyną zagłady jeżowców na Karaibach były pasożytnicze orzęski. Stąd też podejrzenie, że to one są przyczyną wymierania jeżowców u zbiegu Europy, Afryki i Azji. Diadema setosum to jeden z najbardziej rozpowszechnionych na świecie gatunków jeżowców. Sytuacja jest naprawdę poważna. W Morzu Czerwonym wymieranie przebiega błyskawicznie i już objęło większy obszar, niż w Morzu Śródziemnym. Wciąż nie wiemy, co dokładnie zabija jeżowce. Czy to orzęski, jak na Karaibach, czy też jakiś inny czynnik? Tak czy inaczej jest on z pewnością przenoszony przez wodę, dlatego też obawiamy się, że wkrótce wyginą wszystkie jeżowce w Morzu Śródziemnym i Czerwonym, martwi się Bronstein. « powrót do artykułu
  2. Pozycjonowanie to szereg działań, które na celu mają zwiększenie widoczności strony www lub sklepu e-commerce w organicznych wynikach wyszukiwania. W dzisiejszym, cyfrowym świecie, gdzie miliony stron konkurują o uwagę użytkowników, efektywne SEO jest niezbędne. W naszym artykule omówimy kluczowe czynniki wpływające na SEO, w tym kwestie dotyczące wydajności strony, na przykład metrykę Contentful Paint (FCP) i inne. Zapraszamy do zapoznania się z artykułem -agencja SEO/SEM 1stplace.pl. Pozycjonowanie stron i sklepów e-commerce Jak już wspominaliśmy powyżej, pozycjonowanie ma na celu poprawę widoczności strony w organicznych wynikach wyszukiwania. Wyższa pozycja w Google oznacza większą widoczność, więcej ruchu na stronie, a tym samym potencjalnie większe zyski. Pomimo że podstawy pozycjonowania mogą wydawać się proste, cały proces wymaga specjalistycznej wiedzy i ciągłego monitorowania zmieniających się algorytmów wyszukiwarek. Właśnie dlatego, wiele firm decyduje się na skorzystanie z usług agencji e-marketingowej. Agencje e-marketingowe, specjalizujące się w SEO, dysponują niezbędnym doświadczeniem i narzędziami do skutecznego pozycjonowania strony. Specjaliści opracują kompleksową strategię, obejmującą optymalizację on-site i off-site, przeprowadzają analizę słów kluczowych, przygotują treści. Skorzystanie z usług profesjonalnej agencji może przynieść wiele korzyści Twojej firmie. Pozycjonowanie - działania on-site i off-site Pozycjonowanie stron to proces, który obejmuje wiele różnych elementów i strategii. Zrozumienie, jak te elementy współgrają ze sobą, jest kluczowe dla uzyskania satysfakcjonujących efektów. W procesie SEO mówimy o działaniach on-site i off-site. On-page SEO Działania on-page dotyczą prac przeprowadzanych bezpośrednio na stronie www. Są to elementy, które możesz kontrolować i optymalizować. Zawartość: Google ceni unikalne, świeże i wartościowe treści, które są użyteczne dla użytkowników. Treści powinny być napisane w jasny i zrozumiały sposób, z użyciem odpowiednich słów kluczowych. Słowa kluczowe: Słowa kluczowe to ważny element pozycjonowania. Muszą być odpowiednio dobrane i używane w treści, metatagach i URLach. Dzięki temu zarówno roboty Google, jak i użytkownicy,  zrozumieją tematykę strony. Meta tagi: Meta tagi, takie jak meta tytuł i opis meta, pomagają wyszukiwarkom (i użytkownikom), zrozumieć, co znajduje się na stronie. Meta dane powinny być unikalne dla każdej podstrony i zawierać odpowiednie słowa kluczowe. URL: Struktura URL powinna być jasna, zawierać słowa kluczowe, które pomagają zrozumieć, co znajduje się na danej podstronie. Szybkość ładowania strony: Wolno ładujące się strony mogą zniechęcić użytkowników, co poskutkuje wyższym współczynnikiem odrzuceń. Dlatego ważne jest, aby strona ładowała się szybko. Optymalizacja pod kątem urządzeń mobilnych: Liczba użytkowników korzystających z internetu za pomocą telefonów i tabletów wciąż wzrasta. Właśnie dlatego, optymalizacja strony pod kątem urządzeń mobilnych jest niezbędna. Strona powinna być responsywna, czyli dostosowywać swój wygląd i funkcje do rozmiaru ekranu urządzenia, na którym jest wyświetlana. Linki wewnętrzne: Linki prowadzące do różnych podstron w obrębie Twojej witryny pomagają w nawigacji, zwiększają crawl budget. Off-page SEO Czynniki off-page odnoszą się do działań poza stroną. Jest to przede wszystkim linkowanie zewnętrzne. Backlinki, czyli linki z innych stron, prowadzące na Twoją witrynę, mogą znacznie poprawić pozycję strony. Google traktuje wartościowe odnośniki, jak głosy oddane na Twoją witrynę. Czynniki wydajności strony www Wydajność strony internetowej odnosi się do prędkości i płynności działania. Jest to kluczowa kwestia, wpływająca na wrażenia użytkowników, jak i na wyniki pozycjonowania. First Contentful Paint (FCP) znaczenie i optymalizacja First Contentful Paint (https://1stplace.pl/blog/first-contentful-paint-fcp-czym-jest-dlaczego-jest-wazny/) to metryka, która mierzy czas od rozpoczęcia ładowania strony do momentu, gdy pierwszy element (np. obrazek, tekst), jest renderowany na ekranie. Jest to kluczowy wskaźnik, stanowiący sygnał dla użytkownika, że strona się ładuje. Wysokie wartości FCP mogą sugerować, że użytkownik przez dłuższy czas widzi pusty ekran. Może to prowadzić do frustracji i potencjalnie zniechęcić odwiedzającego do dalszego korzystania ze strony. Optymalizacja FCP jest więc niezbędna dla dobrej wydajności strony. Inne czynniki wydajności strony www Oprócz FCP istnieją inne metryki wydajności, które są ważne dla doświadczenia użytkownika i mogą wpływać na pozycjonowanie strony. Poniżej omawiamy metryki Core Web Vitals. Largest Contentful Paint (LCP): Metryka mierzy czas ładowania największego elementu widocznego na stronie (grafiki, treści, video). Wysokie wartości LCP wskazują na problemy z wydajnością, które mogą wpływać na satysfakcję użytkownika. First Input Delay (FID): FID mierzy czas od momentu interakcji użytkownika ze stroną (np. kliknięcie przycisku), do momentu odpowiedzi na tę akcję. Wysoki FID może być frustrujący dla użytkowników, którzy oczekują natychmiastowej reakcji na swoje działania. Cumulative Layout Shift (CLS): CLS odnosi się do przesunięć elementów strony. Niezwiązane z intencją użytkownika przesunięcia elementów mogą być irytujące, prowadzić do przypadkowych kliknięć, a w konsekwencji do opuszczenia strony. Pamiętaj, że wszystkie te metryki są ściśle powiązane z doświadczeniem użytkownika. Im szybciej strona ładuje się i reaguje na interakcje, tym lepsze wrażenie robi na użytkownikach, co z kolei wpływa na SEO. Optymalizacja metryk wydajności Optymalizacja wymienionych metryk wydajności jest bardzo istotna. Pierwszym krokiem powinno być znalezienie i zrozumienie przyczyny problemów z wydajnością. Kolejny krok to podjęcie odpowiednich działań. Oto kilka strategii, które mogą pomóc: Optymalizacja obrazów: Duże, ciężkie obrazy mogą spowolnić ładowanie strony. Warto kompresować obrazy, używać formatów obrazów nowej generacji, takich jak WebP, zastosować technikę ładowania leniwego (lazy loading). Optymalizacja kodu: Usuwanie niepotrzebnego kodu, optymalizacja plików CSS i JavaScript oraz optymalizacja porządku ładowania zasobów mogą przyspieszyć ładowanie strony. Unikanie dużej ilości reklam: Zbyt wiele reklam na stronie może spowolnić jej ładowanie i wpływać na metryki, takie jak CLS. Optymalizacja serwera: Wysokiej jakości, zaufany serwer to kolejny krok do sprawnie działającej witryny. Narzędzia do pomiaru wydajności strony Istnieje wiele narzędzi, które pomagają mierzyć wydajność strony. Są to: Google PageSpeed Insights to narzędzie od Google, które analizuje wydajność strony i daje sugestie dotyczące optymalizacji. Lighthouse to otwarte narzędzie do testowania wydajności, dostępności i innych aspektów stron internetowych. WebPageTest to kolejne popularne narzędzie, które pozwala na szczegółową analizę wydajności strony. Podsumowanie Pozycjonowanie stron jest skomplikowanym procesem, który obejmuje wiele czynników. Działania on-page, off-page, wydajność strony, np. FCP, wszystko to ma wpływ na to, jak strona oceniana jest przez roboty i przez użytkowników. Pamiętaj, że SEO to proces ciągły. Wymaga regularnego monitorowania i optymalizacji, aby strona pozostała konkurencyjna. Korzystanie z narzędzi do mierzenia wydajności strony może pomóc w zrozumieniu, jak strona działa i jakie elementy wymagają poprawy. « powrót do artykułu
  3. W prywatnej kolekcji w Wielkiej Brytanii odkryto jakiś czas temu nieznaną parę portretów pędzla Rembrandta. Obrazy przedstawiają osoby z jego najbliższego kręgu. Mają zostać sprzedane na początku lipca przez dom aukcyjny Christie's. Szacuje się, że cena może sięgnąć 5-8 mln funtów (6,25-10 mln dol.). Dzieła są sygnowane i datowane na 1635 r.  Przedstawiają mieszkańców Lejdy - hydraulika Jana Willemsz. van der Pluyma (ok. 1565-1644) i jego żonę Jaapgen Carels (1565-1640). Majętni mieszczanie byli powiązani z rodziną Rembrandta przez małżeństwo syna. W 1635 r., gdy powstały portrety, van der Pluymowie kupili ogród położony obok ogrodu matki Rembrandta. Należeli do bardzo bliskiego otoczenia mistrza. Opisywane portrety możemy [więc] postrzegać raczej jako osobiste dokumenty niż formalne zamówienia - powiedział Washington Post Henry Pettifer, ekspert od dawnych mistrzów domu aukcyjnego Christie's. Niesamowite jest to, że obrazy te były zupełnie nieznane. Nie wspominano o nich w XIX-XX-w. literaturze nt. Rembrandta - dodał specjalista w wywiadzie dla CNN-u. Ich niewielkie rozmiary, a także intymna natura sugerują, że uwiecznionych ludzi łączyła z malarzem bliska relacja. Sądzę, że to najmniejsze znane nam portrety pędzla Rembrandta [mierzą 19,9x16,5 cm]. Jak podkreślono w komunikacie domu aukcyjnego, portrety pozostawały w rodzinie modeli do 1760 r.; po śmierci ich praprawnuka Martena ten Hove (1683-1759) zostały sprzedane na aukcji w Amsterdamie. Trafiły do Warszawy, do kolekcji hrabiego Wincentego Potockiego. Później w ich posiadanie weszli kolejno baron d'Ivry i pierwszy baron Glenlyon James Murray. Ten ostatni wystawił obrazy na sprzedaż w Christie's (aukcja odbyła się 18 czerwca 1824 r., a wizerunki opatrzono następującym opisem: „Rembrandt – wyjątkowo porywający, z pięknymi barwami”). Od tej pory dzieła przez niemal 200 lat należały do tej samej brytyjskiej rodziny. Pettifer wyjaśnił mediom, że odkryto je przypadkowo parę lat temu, podczas rutynowej oceny wyposażenia domu. Ekspert przyjrzał się zbiorom rodzinnym podczas pandemii. Ujawnił, że choć właścicielom obrazy się podobały, nie byli pewni, czy to Rembrandt i nigdy się tym specjalnie nie interesowali. Później autentyczność portretów potwierdzili specjaliści z Rijksmuseum. Przed aukcją będzie je można zobaczyć w Nowym Jorku, Amsterdamie i oczywiście Londynie. « powrót do artykułu
  4. Ponad połowa największych jezior na świecie traci wodę, wynika z badań przeprowadzonych przez międzynarodowy zespół naukowy z USA, Francji i Arabii Saudyjskiej. Przyczynami tego stanu rzeczy są głównie globalne ocieplenie oraz niezrównoważona konsumpcja przez człowieka. Jednak, jak zauważają autorzy badań, dzięki opracowanej przez nich nowej metodzie szacunku zasobów wody, trendów oraz przyczyn jej ubywania, można dostarczyć osobom odpowiedzialnym za zarządzanie informacji, pozwalającymi na lepszą ochronę krytycznych źródeł wody. Przeprowadziliśmy pierwsze wszechstronne badania trendów oraz przyczyn zmian ilości wody w światowych jeziorach, wykorzystując w tym celu satelity oraz modele obliczeniowe, mówi główny autor badań, Fangfang Yao z Uniwersytetu Kalifornijskiego w Boulder (CU Boulder). Mamy dość dobre informacje o słynnych jeziorach, jak Morze Kaspijskie, Jezioro Aralskie czy Salton Sea, jeśli jednak chcemy dokonać szacunków w skali globalnej, potrzebujemy wiarygodnych informacji o poziomie wód i objętości jeziora. Dzięki tej nowej metodzie możemy szerzej spojrzeć na zmiany poziomu wód jezior w skali całej planety, dodaje profesor Balaji Rajagopalan z CU Boulder. Naukowcy wykorzystali 250 000 fotografii jezior wykonanych przez satelity w latach 1992–2020. Na ich podstawie obliczyli powierzchnię 1972 największych jezior na Ziemi. Użyli też długoterminowych danych z pomiarów poziomu wód z dziewięciu satelitów. W przypadku tych jezior, co do których brak było danych długoterminowych, wykorzystano pomiary wykorzystane za pomocą bardziej nowoczesnego sprzętu umieszczonego na satelitach. Dzięki połączeniu nowych danych z długoterminowymi trendami byli w stanie ocenić zmiany ilości wody w jeziorach na przestrzeni kilku dziesięcioleci. Badania pokazały, że 53% największych jezior na świecie traci wodę, a jej łączny ubytek jest 17-krotnie większy niż pojemność największego zbiornika na terenie USA, Lake Meads. Wynosi zatem około 560 km3 wody. Uczeni przyjrzeli się też przyczynom utraty tej wody. W przypadku około 100 wielkich jezior przyczynami były zmiany klimatu oraz konsumpcja przez człowieka. Dzięki tym badaniom naukowcy dopiero teraz dowiedzieli się, że za utratą wody w jeziorze Good-e-Zareh w Afganistanie czy Mar Chiquita w Argentynie stoją właśnie takie przyczyny. Wśród innych ważnych przyczyn naukowcy wymieniają też odkładanie się osadów. Odgrywa ono szczególnie ważną rolę w zbiornikach, które zostały napełnione przed 1992 rokiem. Tam zmniejszanie się poziomu wody jest spowodowane głównie zamuleniem. Podczas gdy w większości jezior i zbiorników wody jest coraz mniej, aż 24% z nich doświadczyło znacznych wzrostów ilości wody. Są to głównie zbiorniki znajdujące się na słabo zaludnionych terenach Tybetu i północnych części Wielkich Równin oraz nowe zbiorniki wybudowane w basenach Mekongu czy Nilu. Autorzy badań szacują, że około 2 miliardów ludzi mieszka na obszarach, gdzie w zbiornikach i jeziorach ubywa wody, co wskazuje na pilną potrzebę uwzględnienia takich elementów jak zmiany klimatu, konsumpcja przez człowieka czy zamulanie w prowadzonej polityce. Jeśli na przykład konsumpcja przez człowieka jest ważnym czynnikiem prowadzącym do utraty wody, trzeba wprowadzić mechanizmy, które ją ograniczą, mówi profesor Ben Livneh. Uczony przypomina jezioro Sevan w Armenii, w którym od 20 lat poziom wody rośnie. Autorzy badań łączą ten wzrost z wprowadzonymi i egzekwowanymi od początku wieku przepisami dotyczącymi sposobu korzystania z wód jeziora. « powrót do artykułu
  5. Regularna aktywność fizyczna może zmniejszyć krwawienie do mózgu u osób z krwotokiem śródmózgowym. Do takich wniosków doszli naukowcy z Uniwersytetu w Göteborgu, którzy przeprowadzili badania retrospektywne na 686 osobach leczonych z powodu krwotoku śródmózgowego. Uczeni nie byli w stanie określić związku przyczynowo-skutkowego zaobserwowanego zjawiska, ale jednoznacznie wykazali, że u osób aktywnych fizycznie krwotok był mniejszy, niż u nieaktywnych. Za aktywnie fizycznego uczestnika badań uznawano osobę, która angażowała się w co najmniej lekką aktywność fizyczną polegającą na spacerowaniu, jeżdżeniu na rowerze, pływaniu, uprawianiu ogrodu czy tańczeniu przez co najmniej 4 godziny tygodniowo. Zauważyliśmy, że u osób angażujących się w regularną aktywność fizyczną objętość krwiaka w chwili przyjęcia do szpitala średnio o 50% mniejsza, niż u osób nieaktywnych. Wcześniej zauważono takie zjawisko u zwierząt, ale nie u ludzi, mów główny autor badań, doktorant Adam Viktorisson. Krwotok śródmózgowy może być bardzo niebezpieczny. Dlatego osoby trafiające do szpitala z jego objawami są badane za pomocą tomografu komputerowego. Czasem wymagana jest interwencja chirurgiczna, jednak w większości przypadków wystarczy zastosowanie odpowiednich leków. Odkrycie dokonane przez naukowców z Göteborga dotyczy wszelkich rodzajów krwotoków śródmózgowych, niezależnie od ich lokalizacji. Aktywni fizycznie pacjenci mieli mniejsze krwiaki zarówno w przypadku krwotoków w głębszych regionach mózgu, często powodowanych przez wysokie ciśnienie krwi, jak i przy powierzchni, gdzie krwotoki łączy się ze związanymi z wiekiem schorzeniami jak demencja. Profesor Katharina Stibrant Sunnerhagen mówi, że badania te to dobry punkt wyjścia do lepszego poznania związku pomiędzy krwotokiem śródmózgowym a aktywnością fizyczną. Mamy nadzieję, że nasza praca pozwoli lepiej zrozumieć krwotok śródmózgowy i opracować lepsze metody zapobiegania temu schorzeniu. « powrót do artykułu
  6. Po 10 latach pionierskiej pracy naukowcy z amerykańskiego SLAC National Accelerator Laboratory ukończyli wykrywacze ciemnej materii SuperCDMS. Dwa pierwsze trafiły niedawno do SNOLAB w Ontario w Kanadzie. Będą one sercem systemu poszukującego dość lekkich cząstek ciemnej materii. Urządzenia mają rejestrować cząstki o masach od 1/2 do 10-krotności masy protonu. W tym zakresie będzie to najbardziej czuły na świecie wykrywacz ciemnej materii. Twórcy detektorów mówią, że przy ich budowie wiele się nauczyli i stworzyli wiele interesujących technologii, w tym elastyczne kable nadprzewodzące, elektronikę działającą w ekstremalnie niskich temperaturach czy lepiej izolowane systemy kriogeniczne, dzięki czemu całość jest znacznie bardziej czuła na ciemną materię. A dodatkową zaletą całego eksperymentu jest jego umiejscowienie 2 kilometry pod ziemią, co pozwoli na wyeliminowanie znaczniej części zakłóceń ze strony promieniowania kosmicznego. SNOLAB i SuperCDMS są dla siebie stworzone. Jesteśmy niesamowicie podekscytowani faktem, że detektory SuperCDMS mają potencjał, by bezpośrednio zarejestrować cząstki ciemnej materii i znacząco zwiększyć nasza wiedzę o naturze wszechświata, mówi Jodi Cooley, dyrektor SNOLAB. Zrozumienie ciemnej materii to jedno z najważniejszych zadań nauki, dodaje JoAnne Hewett ze SLAC. Wiemy, że materia widzialna stanowi zaledwie 15% wszechświata. Cała reszta to ciemna materia. Jednak nikt nie wie, czym ona jest. Wiemy, że istnieje, gdyż widzimy jej oddziaływanie grawitacyjne z materią widzialną. Jednak poza tym nie potrafimy jej wykryć. Eksperyment SuperCDMS SNOLAB to próba zarejestrowania cząstek tworzących ciemną materię. Naukowcy chcą w nim wykorzystać schłodzone do bardzo niskich temperatur kryształy krzemu i germanu. Stąd zresztą nazwa eksperymentu – Cryogenic Dark Matter Search (CDMS). Uczeni mają nadzieję, że w temperaturze o ułamek stopnia wyższej od zera absolutnego uda się zarejestrować wibracje kryształów powodowane interakcją z cząstkami ciemnej materii. Takie kolizje powinny zresztą wygenerować pary elektron-dziura, które – przemieszczając się w krysztale – wywołają kolejne wibracje, wzmacniając w ten sposób sygnał. Żeby jednak tego dokonać, detektory muszą zostać odizolowane od wpływu czynników zewnętrznych. Dlatego też eksperyment będzie prowadzony w SNOLAB, laboratorium znajdującym się w byłej kopalni niklu, ponad 2000 metrów pod ziemią. Stopień trudności w przeprowadzeniu tego typu eksperymentów jest olbrzymi. Nie tylko bowiem konieczne było stworzenie nowatorskich wykrywaczy, co wymagało – jak już wspomnieliśmy – 10 lat pracy. Wyzwaniem był też... transport urządzeń. Aby chronić je przed promieniowaniem kosmicznym, należało jak najszybciej dostarczy je z USA do Kanady. Oczywiście na myśl przychodzi przede wszystkim transport lotniczy. Jednak im wyżej się wzniesiemy, tym cieńsza warstwa atmosfery nas chroni, zatem tym więcej promieniowania kosmicznego do nas dociera. Wybrano więc drogę lądową, ale... naokoło. Pomiędzy Menlo Park w Kalifornii, gdzie powstały wykrywacze, a kanadyjską prowincją Ontario znajdują się Góry Skaliste. Ciężarówka z wykrywaczami musiałaby więc wjechać na sporą wysokość nad poziomem morza, co wiązałoby się z większym promieniowaniem docierającym do detektorów. Dlatego też jej trasa wiodła na południe, przez Teksas. Już następnego dnia po dotarciu do Ontario urządzenia zostały opuszczone pod ziemię, gdzie czekają na instalację. Jeszcze w bieżącym roku do Kanady trafią kolejne SuperCDMS, a wstępne przygotowania do uruchomiania laboratorium mają zakończyć się w 2024 roku. Naukowcy mówią, że po 3-4 latach pracy laboratorium powinno zebrać na tyle dużo danych, że zdobędziemy nowe informacje na temat ciemnej materii. « powrót do artykułu
  7. Zapylacze to w naszej świadomości przede wszystkim owady, głównie pszczoły czy trzmiele, chociaż ważną rolę odgrywają również motyle, w tym ćmy. Czasami przypomnimy sobie, że w innych strefach klimatycznych zapylaczami są również ptaki. Z Brazylii nadeszła właśnie informacja o możliwym odkryciu niezwykłego zapylacza. Może nim być Xenohyla truncata z rodziny rzekotkowatych. Jeśli dalsze badania potwierdzą przypuszczenia naukowców, będzie to pierwszy znany nam płaz zapylający. W grudniu 2020 roku naukowcy z Universidade Federal de Mato Grosso oglądali w pobliżu miasta Armação dos Búzios grupę nadrzewnych Xenohyla truncata jedzących owoce. Wcześniejsze badania żołądków okazów znajdujących się w zbiorach muzealnych pokazało, że jest to jeden z niewielu płazów żywiących się owocami. W pewnym momencie naukowcy zauważyli, że jedno ze zwierząt weszło do wnętrza kwiatu, by pożywić się nektarem, a gdy wyszło, do jego grzbietu przyczepiony był pyłek. Uczeni przypominają, że dotychczas fotografowano płazy na kwiatach, ale nigdy nie zaobserwowano interakcji pomiędzy zwierzęciem a kwiatem. Zaobserwowane zjawisko dało silne podstawy do wysunięcia hipotezy, że Xenohyla truncata może być pierwszym znanym płazem zapylającym. Jednoznaczne potwierdzenia tego przypuszczenia wymaga jednak dalszych badań. Specjaliści mówią, że konieczna będzie obserwacja kwiatów za pomocą kamer lub ustawienie przy niektórych kwiatach barier, by sprawdzić, czy odnoszą one mniejszy sukces reprodukcyjny, gdy płazy nie mają do nich dostępu. Konieczne jest też sprawdzenie, czy pyłek przyczepiający się do grzbietu Xenohyla truncata nie ulega uszkodzeniu, czy rzeczywiści jest on następnie pozostawiany w innych kwiatach i czy wizyty płazów w kwiatach mają widoczny wpływ na reprodukcję drzew. Jeśli potwierdzi się, że X. truncata zapyla drzewa, będzie to kolejny dowód, jak mało wiemy o środowisku naturalnym. Dopiero w ostatnich latach odkryliśmy, że rośliny są zapylane przez jaszczurki, oposy, szczury czy karaluchy. Xenohyla truncata to gatunek zagrożony, ludzie w coraz większym stopniu niszczą ich środowisko naturalne osiedlając się w pobliżu terenów zajętych przez te zwierzęta. A bliskość ludzkich osiedli oznacza, że płazy padają ofiarami kotów, a gdy wejdą do domu, są często zabijane. Tymczasem być może jest to jedyny na świecie płaz zapylający. Jeśli więc stracimy ten gatunek, stracimy też unikatową ekologiczną interakcję zachodząca pomiędzy płazami a roślinami, mówi biolog Carlos Henrique de-Oliveira-Nogueira. Opisujący badania artykuł Between fruits, flowers and nectar: The extraordinary diet of the frog Xenohyla truncata został opublikowany na łamach Food Webs. « powrót do artykułu
  8. Wraz z rozwojem coraz doskonalszych generatorów tekstu, takich jak ChatGPT, coraz częściej pojawiają się głosy o potrzebie opracowania metod wykrywania tekstów stworzonych przez sztuczną inteligencję. Metody takie przydałyby się nauczycielom czy wykładowcom akademickim, którzy mogliby identyfikować prace pisemne przyniesione przez nieuczciwych uczniów i studentów, przedstawiających wygenerowany przez komputer tekst jako własne dzieło. Mówi się o kursach z wykrywania oszustw i o tworzeniu odpowiednich narzędzi. Takie narzędzia – bazujące na sztucznej inteligencji – już powstają. Problem w tym, że nie są one zbyt wiarygodne. Naukowcy z Uniwersytetu Stanforda przyjrzeli się kilku algorytmom sztucznej inteligencji, które mają określać, czy zaprezentowany tekst został stworzony przez człowieka czy też przez inną sztuczną inteligencję. O ile jednak takie algorytmy sprawdzają się „niemal doskonale” podczas analizy tekstów pisanych przez 13-14-latków urodzonych w USA, to już zawodzą tam, gdzie mają do czynienia z angielskim tekstem napisanym przez osobę, dla której angielski nie jest językiem ojczystym. Okazało się bowiem, że gdy systemy te miały ocenić, kto jest autorem tekstu napisanego w ramach egzaminu TOEFL (Test of English as a Foreign Language), w aż 61,22% uznały, że to SI stworzyła tekst, który został napisany przez człowieka. W rzeczywistości jest jednak jeszcze gorzej. Aż 19% prac napisanych przez nastolatków, dla których angielski nie jest językiem ojczystym, zostało uznanych za stworzone przez SI przez wszystkie 7 badanych narzędzi do wykrywania fałszywek. A aż 97% napisanych przez ludzi prac zostało uznane za fałszywe przez co najmniej jeden z systemów. Problem tkwi tutaj w sposobie pracy systemów wykrywających tekst napisany przez Si. Opierają się one bowiem na złożoności użytego języka. Oczywistym jest, że przeciętna osoba, która nie jest rodzimym użytkownikiem języka angielskiego ma mniejszy zasób słownictwa, a tworzone przez nią zdania są prostsze pod względem gramatycznym i składniowym od zdań rodzimego użytkownika angielskiego. Sztuczna inteligencja, próbując wykryć fałszywki, uznaje ten niższy poziom złożoności za znak, że tekst został stworzony przez sztuczną inteligencję. To poważny problem, gdyż uczeń czy student, który urodził się poza USA, może w ten sposób zostać uznany przez nauczyciela za oszusta, mimo że sam napisał pracę. Co więcej, naukowcy ze Stanforda zauważyli, że takie systemy łatwo jest oszukać nawet rodzimemu użytkownikowi angielskiego. Okazuje się bowiem, że wystarczy wygenerować tekst za pomocą ChataGPT, a następnie wydać maszynie polecenie, by poprawiła ten tekst dodając doń słownictwo literackie. Obecne wykrywacze są niewiarygodne i łatwo je oszukać, dlatego też należy używać ich bardzo ostrożnie w roli remedium na oszukiwanie za pomocą sztucznej inteligencji, mówi jeden z autorów badań, profesor James Zou. Uczony uważa, że w najbliższej przyszłości nie należy ufać takim wykrywaczom, szczególnie w tych szkołach i uczelniach, gdzie mamy dużo uczniów, dla których angielski nie jest językiem macierzystym. Po drugie, twórcy narzędzi do wykrywania muszą zrezygnować ze złożoności jako głównego wyznacznika analizy tekstu i opracować bardziej zaawansowane techniki. Ponadto ich systemy powinny być bardziej odporne na obejście. Być może rozwiązanie problemu leży po stronie twórców takich systemów jak ChatGPT. Zou sugeruje, że tego typu generatory mogłyby dodawać do tekstu rodzaj znaku wodnego, którym byłyby subtelne sygnały, oczywiste dla systemów wykrywających, stanowiące niejako podpis generatora i wskazujące, że to on jest autorem. « powrót do artykułu
  9. Glejak wielopostaciowy to jeden z najczęściej spotykanych i najbardziej agresywnych pierwotnych nowotworów mózgu. Występuje on u od 0,6 do 5 osób na 100 000, a liczba jego przypadków rośnie na całym świecie. Średni spodziewany czas życia od postawienia diagnozy wynosi zaledwie 15 miesięcy. Na University of Toronto postała właśnie nowa technika mikrochirurgiczna, która może pomóc w leczeniu tej choroby. Związane z nią nadzieje są tym większe, że może być wykorzystana do leczenie guzów opornych na inne terapie i umiejscowionych w tych obszarach mózgu, w których interwencja chirurgiczna jest wykluczona. Obecnie standardowe leczenie glejaka polega na usunięciu guza i zastosowaniu radio- oraz chemioterapii. Niestety, komórki glejaka bardzo szybko się namnażają i naciekają na sąsiadującą tkankę, przez co ich chirurgiczne usunięcie jest bardzo trudne. Tym bardziej, że mamy do czynienia z mózgiem, w którym nie możemy wycinać guza z dużym marginesem. Jakby tego było mało, glejak szybko nabiera oporności na chemioterapię. Bardzo często więc u pacjentów dochodzi do wznowy nowotworu, który wkrótce przestaje reagować na dostępne metody leczenia. Yu Sun, profesor na Wydziale Nauk Stosowanych i Inżynierii oraz Xi Huang z Wydziału Medycyny University of Toronto mają nadzieję na zmianę stanu rzeczy za pomocą robotycznych nano-skalpeli, które mogą precyzyjnie zabijać komórki nowotworu. Naukowcy stworzyli węglowe nanorurki, które wypełnili cząstkami tlenku żelaza. Tak uzyskane magnetyczne nanorurki (mCNT) są pokryte przeciwciałami, które rozpoznają specyficzną dla komórek glejaka proteinę CD44. Nanorurki są następnie wstrzykiwane w miejsce występowania guza i samodzielnie poszukują proteiny CD44. Gdy ją znajdą, przyczepiają się do komórki i do niej wnikają. A kiedy są już na miejscu, wystarczy włączyć zewnętrzne pole magnetyczne, pod wpływem którego mCNT zaczynają wirować, uszkadzając od wewnątrz komórki glejaka i prowadzą do ich śmierci.     Jako że nanorurki niszczą komórki za pomocą oddziaływania mechanicznego, nie ma ryzyka, że komórki zyskają oporność na ten sposób oddziaływania. Nowa metoda może zatem być odpowiedzią zarówno na problem uodparniania się guza na chemioterapię, jak i na niemożność tradycyjnego usunięcia guza metodami chirurgicznym. Podczas przeprowadzonych już badań na myszach naukowcy wykazali, że ich metoda zmniejszyła rozmiary guza i wydłużyła życie myszy z oporną na chemioterapię formą glejaka wielopostaciowego. Inną korzyścią z zastosowania mechanicznego oddziaływania mCNT jest fakt, że obok fizycznego niszczenia struktury komórek, nanorurki mogą modulować specyficzne biochemiczne szlaki sygnałowe, co będziemy starali się wykorzystać do opracowania łączonej terapii biorącej na cel nieuleczalne guzy mózgu, mówi Wang. « powrót do artykułu
  10. Panele fotowoltaiczne zamontowane na dachach zakładów przemysłowych mogą zaspokoić do 35% zapotrzebowania amerykańskiego przemysłu na energię, informują naukowcy z Nortwestern University. To olbrzymi niewykorzystany potencjał. Obecnie bowiem panele zainstalowane w miejscach działania firm produkcyjnych dostarczają im zaledwie 0,1% energii. Tymczasem przemysł odpowiada za 38% zużycia energii w Stanach Zjednoczonych i 37% emisji gazów cieplarnianych. Potencjał dachów pozostaje niewykorzystany nie tylko zresztą w przemyśle. Instalowane tam panele zapewniłyby 13,6% energii zużywanej w USA, a obecnie wytwarzają zaledwie 2,2% energii. Uczeni przedstawili na łamach Environmental Research: Sustainability and Infrastructure wyniki badań nad możliwością pozyskiwania energii słonecznej na własną działalność przez różne gałęzie amerykańskiego przemysłu. Wykorzystali przy tym dane z badań Manufacturing Energy Consumption Survey przeprowadzonych przez Departament Energii. Na ich podstawie wyliczyli potencjalną ilość energii, jaka jest możliwa do pozyskania z paneli słonecznych umiejscowionych na dachu przeciętnego budynku, w którym odbywa się produkcja. Z obliczeń wynika, że panele montowane na dachach mogą zapewnić – w zależności od sektora przemysłu i pory roku – od 5 do 35 procent zapotrzebowania na energię. Najbardziej na ich zainstalowaniu zyskałyby przemysły meblarski, tekstylny oraz odzieżowy. Tego typu zakłady są w stanie całkowicie samodzielnie zaspokoić swoje roczne uśrednione zapotrzebowanie na energię z własnych paneli słonecznych. Przemysł jest na całym świecie jednym z głównych użytkowników energii i jednym z głównym emitentów gazów cieplarnianych. Nic więc dziwnego, że skupia się na nim wiele wysiłków mających doprowadzić do zmniejszenia emisji gazów cieplarnianych przez ludzi. Naukowcy z Northwestern University wykazali, że instalowanie paneli słonecznych na dachach budynków może być dla firm produkcyjnych opłacalnym sposobem na pozyskanie energii. Przedsiębiorstwa dysponują bowiem dużymi powierzchniami płaskich dachów, na których montowanie paneli słonecznych jest łatwe i tanie, co w obliczu spadających cen ogniw i ich rosnącej wydajności staje się opłacalnym rozwiązaniem. Szczególnie kuszący może być fakt, że wiosną i latem na 40% powierzchni USA panują takie warunki, które wielu znajdującym się tam firmom produkcyjnym pozwoliłyby w 100% zaspokoić zapotrzebowanie na energię z własnych paneli słonecznych. « powrót do artykułu
  11. Po 50 latach do australijskiego Royal National Park powróciły dziobaki. Reintrodukcja tego niezwykłego gatunku była możliwa dzięki pracy naukowców z Uniwersytetu Nowej Południowej Walii, WWF-Australia i Taronga Conservation Society Australia. Właśnie wypuścili oni cztery samice na brzeg rzeki Hacking, a zwierzęta szybko pomknęły w kierunku wody. W sumie w tym samym miejscu zostanie wypuszczonych 6 samic i 4 samce. Działania takie mają na celu nie tylko wprowadzić dziobaka w miejsce, w którym niegdyś występował, ale też zwiększyć różnorodność genetyczną gatunku i jego szanse na przetrwanie. Pomysł reintrodukcji dziobaka w Royal National Park narodził się przed trzema laty. Wymagał on szczegółowych badań i wielu przygotowań. Specjaliści musieli zabrać dziobaki z innych regionów, upewniając się, że nie zaszkodzą miejscowej populacji i nie zubożą jej puli genetycznej. Jednocześnie zaś, jako że zwierzęta pochodziły z różnych miejsc, zapewniono nowej populacji odpowiednie zróżnicowanie genetyczne. Jednocześnie trwały przygotowania i badania w samym Royal National Park. Eksperci przez wiele miesięcy sprawdzali tam jakość wody oraz dostępność pożywienia. Szczególnie zmartwieniem była powódź z 2021 roku, w czasie której zalane zostały hałdy węgla. Jednak badania wykazały, że nie doszło do obniżenia jakości wody. "Szczegółowo monitorowaliśmy jakość wody i dostępność pożywienia podczas ekstremalnych powodzi, badaliśmy poziom zanieczyszczeń wówczas oraz rok po powodzi", zapewnia profesor Richard Kingsford. Dziobaki żywią sie niewielkimi bezkręgowcami, w tym nimfami ważek, chruścików i małymi krewetkami. Przez cały ubiegły rok u brzegów Hacking River zwierzęta te występowały w obfitości, a ostatnich badań dokonywano jeszcze przed miesiącem. Naukowcy upewnili się tym samym, że dziobaki będą miały co jeść. « powrót do artykułu
  12. Po 15 latach poszukiwań naukowcom udało się zarejestrować wodę wydobywającą się z komety z głównego pasa asteroid. Odkrycia dokonano dzięki Teleskopowi Webba, którego spektroskop pokazał, że warkocz komety 238P/Read składa się z pary wodnej. Jednocześnie nie zarejestrowano w komie znaczących ilości dwutlenku węgla. To zaś wskazuje, że aktywność komety Read napędzana jest przez sublimację lodu w parę wodną i sugeruje, że komety z głównego pasa znacząco różnią się od innych komet. W głównym pasie asteroid obecne są obiekty, które, gdy znajdą się w peryhelium, wykazują aktywność podobną do komet (np. pojawia się u nich koma). To bardzo silna przesłanka na sublimację lodu. Obecność tych komet wskazuje na istnienie wody w głównym pasie, jednak nie udawało się jej wykryć za pomocą żadnego teleskopu. Główny pas asteroid znajduje się pomiędzy Marsem a Jowiszem, a orbity większości z tamtejszych komet są kołowe. Dotychczas rejestrowano jedynie wydobywający się z nich pył. Astronomowie sądzą, że większość komet z głównego pasa asteroid nie zawiera zbyt dużo wody, gdyż od miliardów lat znajdują się w ciepłych wewnętrznych obszarach Układu Słonecznego. Tymczasem gros innych komet – jak np. słynna kometa Halleya – większość czasu spędza w zimnych obszarach zewnętrznych i mają silnie wydłużone orbity, rzadko zapuszczając się w pobliże naszej gwiazdy. Dlatego też wciąż pojawiały się wątpliwości, czy komety z głównego pasa zbudowane są z lodu. Aż do teraz. Od czasu odkrycia komet głównego pasa zebraliśmy znaczącą liczbę dowodów wskazujących na to, że ich aktywność napędzana jest przez sublimację. Jednak dotychczas były to dowody pośrednie. Wyniki uzyskane przez JWST to pierwszy bezpośredni dowód na sublimację wody i jakiekolwiek wydobywanie się gazu z komet głównego pasa. Poszukiwania takiego gazu były prowadzone od 2008 roku za pomocą najpotężniejszych teleskopów naziemnych, mówi współautor najnowszych badań, Henry Hsieh z Planetery Science Institute. W przeszłości stał on na czele zespołu, który odkrył komety głównego pasa asteroid. W artykule opublikowanym właśnie przez Hsieha i jego zespół czytamy, że komety z głównego pasa mają znacząco różny skład od innych komet. W ich składzie niemal nie występuje dwutlenek węgla, którego duże ilości budują inne komety. Na tej podstawie można zaś stwierdzić, że komety z głównego pasa reprezentują słabo poznaną podklasę obiektów. Zatem ich zbadanie jest bardzo ważne dla lepszego zrozumienia obecności substancji lotnych we wczesnym Układzie Słonecznym i jego ewolucji. Jedna z hipotez dotyczących obecności wody na Ziemi mówi, że pochodzi ona z głównego pasa asteroid. Teraz zyskaliśmy potwierdzenie, że obszarze tym rzeczywiście znajduje się woda, zatem mogła ona zostać przyniesiona stamtąd na naszą planetę. « powrót do artykułu
  13. We wsi Grójec koło Ćmielowa w Świętokrzyskiem znajduje się rozległy lessowy cypel górujący o 40 metrów nad doliną rzeki Kamiennej. Miejscowi nazywają to miejsce „Grodziskiem” lub „Zjawienną Górą”. Wiosną ubiegłego roku w regionie tym latał samolot, który wykonywał zdjęcia lotnicze na potrzeby Geoportalu Krajowego. Miejsce to było już niejednokrotnie fotografowane z powietrza i nie zauważono tam niczego szczególnego. Jednak tym razem fotografie wykonano na tyle wcześnie, że na polach nic nie rosło. Dzięki temu Kamil Bilski ze Stowarzyszenia „Wspólne Dziedzictwo” z Opatowa zauważył na fotografiach niezwykłe struktury. Nazwy „Grodzisko” i „Grójec” sugerują istnienie tutaj wczesnośredniowiecznego grodu. Jednak obecnie nie widać żadnych śladów takiej budowli. Co więcej, aż do końca XVIII wieku w staropolszczyźnie „grodzisko” czy „grójec” oznaczało nie gród, a jakiś teren ogrodzony, na przykład pastwisko. Dopiero w XIX wieku słowa te zaczęto kojarzyć ze strukturą obronną. I prawdopodobnie „Grodzisko” w Grójcu pochodzi od ogrodzonego pastwiska. Jednak znacznie bardziej interesująca jest nazwa „Zjawienna Góra”. Taka i podobne nazwy występujące jeszcze w kilku miejscach w Polsce, sugerują, że coś się tutaj zjawiło, objawiło lub objawiało. W czasach pogańskich mogło być to jakieś bóstwo, później najczęściej chodzi o Matkę Boską lub jednego ze świętych. Wiemy na przykład, że w Radomyślu ze wzgórzem „Zjawienie” od XV wieku związany jest kult Matki Boskiej. Z kolei w Feliksówce na wzniesieniu „Zjawienie” znajdują się trzy półkoliste wały, a u jego podnóża znajduje się kapliczka św. Romana i cudowne źródełko, do którego pielgrzymowano co najmniej od XVIII wieku. Archeolodzy przypuszczają, że we wczesnym średniowieczu znajdował się gród kultowy – pogańskie miejsce obrzędowe oddzielone symbolicznie od strefy profanum. Wróćmy jednak do „Zjawiennej Góry” w Grójcu. Niejednokrotnie znajdowano tam gliniane naczynia oraz wyroby krzemienne i kamienne z kultury lubelsko-wołyńskiej ceramiki malowanej, neolitycznej kultury pucharów lejkowych, kultury mierzanowickiej czy łużyckiej, kultury przeworskiej z okresu rzymskiego. Nie były prowadzone jednak żadne prace archeologiczne, stąd możemy tylko przypuszczać, że w tym miejscu zamieszkiwano, a co najmniej przechodzono przez nie od tysięcy lat. Na wspomnianych już zdjęciach lotniczych pan Kamil Bilski zauważył trzy półksiężycowate rowy o szerokości 3-6 metrów, biegnące od wschodniej po zachodnią krawędź cypla, prosty rów, kilkadziesiąt różnych obiektów, w tym kwadratowe półziemianki i okrągłe lub owalne jamy. Poza nimi widać też linie okopów z II wojny światowej. Co prawda bez badań archeologicznych trudno określić, z jakiego okresu pochodzą widoczne obiekty, jednak doktor Marek Florek z sandomierskiej delegatury Wojewódzkiego Urzędu Ochrony Zabytków w Kielcach oraz Uniwersytetu Marii Curie-Skłodowskiej w Lublinie i stawia dwie hipotezy. Zgodnie z pierwszą z nich rowy powstały w środkowym neolicie i są pozostałością osady obronnej ludności kultury lubelsko-wołyńskiej ceramiki malowanej z IV tysiąclecia p.n.e. Druga zaś hipoteza mówi, że są to średniowieczne fosy sprzed końca X wieku, które związane były z funkcjonującym na „Zjawiennej Górze” pogańskim miejscem kultowym. Z kolei kwadratowe półziemianki mogą pochodzić albo z okresu rzymskiego, albo – co bardziej prawdopodobne – z wczesnego średniowiecza. Jamy zaś powstawały w różnych okresach. Doktor Florek zapowiada, że jesienią zostaną przeprowadzone wstępne rozpoznania archeologiczne na „Zjawiennej Górze”. « powrót do artykułu
  14. Zasada prawej ręki to jedna z najbardziej podstawowych i najczęściej stosowanych reguł ruchu drogowego w Polsce. Zapominanie o niej nie tylko grozi stworzeniem niebezpiecznych sytuacji na drodze, ale również ukaraniem kierowcy mandatem. Na szczęście ta reguła jest tak uniwersalna i często używana, że większość osób stosuje się do niej automatycznie. Sen z powiek może spędzać co najwyżej młodym, czekającym na egzamin na prawo jazdy kierowcom. Czym dokładnie jest zasada prawej ręki i kiedy należy ją stosować? Czym jest zasada prawej ręki? Zasada prawej ręki to uniwersalna reguła, do której powinien się stosować każdy kierowca. Obowiązuje w każdym miejscu, w którym nie ma dokładnych oznaczeń drogowych. To w dużej mierze dzięki niej na drogach panuje porządek, a kierowcy wiedzą, jak się zachować na słabo oznakowanym terenie. Głównym jej celem jest usystematyzowane i upłynnienie ruchu, a także zminimalizowanie ryzyka kolizji pomiędzy pojazdami. Reguła prawej ręki dotyczy konkretnie tego, który pojazd może jako pierwszy ruszyć, skręcić lub wjechać na dany teren. Jak wskazuje nazwa „reguła prawej ręki” – kierowcy powinni ustępować pierwszeństwa pojazdom znajdującym się po prawej stronie. Co to oznacza w praktyce? Zasada prawej ręki najczęściej stosowana jest na skrzyżowaniach równorzędnych. Według niej kierowcy powinni ustępować pierwszeństwa pojazdom nadjeżdżającym z prawej strony i mieć nadrzędność przejazdu nad pojazdami pojawiającymi się z lewej strony. Dzięki temu kolejność wjazdu na skrzyżowanie jest usystematyzowana i każdy uczestnik wie, kiedy może się włączyć do ruchu drogowego. Kiedy należy zastosować zasadę prawej ręki? Reguła prawej ręki znajdzie zastosowanie w każdej sytuacji, gdy ruch na drodze nie jest regulowany ani komunikacją świetlną, ani znakami drogowymi. Wtedy, aby nie doszło do kolizji - stosowane jest prawo pierwszeństwa pojazdu znajdującego się z prawej strony. Obecnie ta reguła nie jest tak często stosowana jak kiedyś, ponieważ w większości miejsc znajdują się znaki drogowe lub sygnalizacja świetlna. Jednak nie wyszła ona całkowicie z użytku i w mniejszych miejscowościach lub wsiach wciąż korzysta z niej wielu kierowców. Gdzie można zastosować regułę prawej ręki? Zasada prawej ręki nie jest ważniejsza niż znaki drogowe, sygnalizacja świetlna, ani policjant kierujący ruchem, dlatego należy ją stosować tylko w miejscach, gdy nie ma innej możliwości. Gdzie kierowca może wykorzystać tę regułę? Strefa ograniczonej prędkości – w mieście często kierowcy napotykają wydzielone przestrzenie oznaczone B-43. Zazwyczaj właśnie tam jest najwięcej skrzyżowań równorzędnych, przy których nie ma sygnalizacji świetlnej i znaków. Dlatego wjeżdżając w strefę ograniczonej prędkości prawdopodobnie kierowcy będą musieli stosować zasadę prawej ręki. Rondo – przed większością skrzyżowań okrężnych w Polsce znajduje się znak A-7, który zwalnia kierowców ze stosowania zasady prawej ręki. Widząc taki znak należy ustąpić pierwszeństwa pojazdom już znajdującym się na rondzie. Autostrady i drogi ekspresowe – oprócz stosowania prawa pierwszej ręki na skrzyżowaniach, powinno się również o nim pamiętać poruszając się na trzypasmowych drogach szybkiego ruchu. Jeśli kierowca chce zmienić pas z lewego na środkowy, to powinien przepuścić najpierw samochód wykonujący ten sam manewr, ale od prawej strony. Jeśli chcesz poznać jeszcze inne przypadki, w których kierowcy powinni stosować zasadę prawej ręki zajrzyj na stronę: https://rankomat.pl/samochod/zasada-prawej-reki. Kiedy prawo prawej ręki nie obowiązuje? Reguła prawej ręki nie obowiązuje oczywiście wtedy, gdy na drodze znajduje się policjant kierujący ruchem, ustawione są znaki drogowe lub działa sygnalizacja świetlna. Tą zasadą należy się kierować jedynie w sytuacjach, gdy nie ma innego wyjścia. Warto również pamiętać, że prawo drogowe nie jest uniwersalne dla każdego kraju i niekoniecznie za granicą również obowiązuje reguła prawej ręki. W większości miejsc rzeczywiście kierowcy nie powinni mieć żadnego problemu i mogą bezpiecznie stosować tę metodę. Jednak w krajach, w których obowiązuje lewostronny ruch, jak np. Wielka Brytania zasada prawej ręki się nie sprawdzi. Dlatego przed każdą zagraniczna podróżą samochodem warto przed wyjazdem zapoznać się z zasadami ruchu drogowego kraju, do którego się udajesz. Czym grozi niestosowanie reguły prawej ręki? Pierwszą i najpoważniejszą konsekwencją niestosowania się do zasad ruchu drogowego jest ryzyko kolizji. W przypadku niezachowania reguł dotyczących pierwszeństwa szczególnie wzrasta to prawdopodobieństwo. Kolizja pomiędzy dwoma wyjeżdżającymi samochodami nie tylko może obu kierowców narazić na problemy zdrowotne, ale sprawcę również na finansowe. W związku ze zmianą przepisów, od 2022 roku kierowca, który wymusił pierwszeństwo może zostać obciążony mandatem do 350zł i 6 punktami karnymi. Dodatkowo, jeśli przyczyną kolizji jest złamanie zasady prawej ręki kara może zwiększyć się do 1000zł. Warto być świadomym kierowcą i stosować się do zasad ruchu drogowego, dbając zarówno o swoje bezpieczeństwo, jak i pozostałych uczestników ruchu. « powrót do artykułu
  15. Zakup nowego komputera to zwykle duże wydarzenie. Jeżeli zależy nam na dobrym sprzęcie, musimy przygotować dość istotny budżet - w szczególności w przypadku laptopów, które naturalnie są droższe od desktopów. Na co zwrócić uwagę przy wyborze modelu dla siebie? Czy warto kupić Macbooka, czy może jednak lepiej pozostać przy komputerze opartym o system Windows? Na jakie parametry, plusy i minusy Macbooka powinniśmy zwrócić uwagę, aby podjąć możliwie jak najkorzystniejszą dla nas decyzję? Komputery Apple - czym różnią się od klasycznych desktopów i laptopów? Laptop Apple - największe zalety Macbook Air czy Macbook Pro - który model wybrać? Dla kogo wybór laptopa od Apple będzie dobrą decyzją? O czym jeszcze pamiętać przy zakupie laptopa? Komputery Apple - czym różnią się od klasycznych desktopów i laptopów? Wybór komputera to kwestia bardzo osobista. Możemy potrzebować różnych konfiguracji zależnie od tego, do czego planujemy sprzęt wykorzystać. Niewątpliwą zaletą klasycznych desktopów jest fakt, że sami możemy dobrać części, skonfigurować je i - w razie potrzeby - wymienić. W przypadku laptopów oraz produktów od Apple otrzymujemy gotowy zestaw, bez większej możliwości wpłynięcia na to, co znajduje się pod obudową. Komputer Apple ma jednak pewne zalety, których desktop nie posiada i może być lepszym wyborem dla określonej grupy użytkowników. Jak rozpoznać, czy się do niej zaliczamy? Laptop Apple - największe zalety Jeżeli zastanawiamy się, czy opłaca się nam kupić Macbooka Air lub inny model od Apple, warto najpierw zapoznać się ze specyfikacją sprzętu. Nie da się ukryć, że produkty Apple słyną z wysokiej ceny, jednak w parze z nią idzie także wysoka jakość. W przypadku laptopów jest to szczególnie istotne, ponieważ urządzenia tej marki słyną z długiego czasu pracy na jednej baterii. Dzięki temu nie musimy martwić się w podróży, biurze czy też podczas pracy w plenerze, że nie zdążymy wykonać wszystkich ważnych zadań. Dodatkowo też dłuższy czas pracy bez ładowania oznacza, że możemy zostawić laptopa do naładowania w czasie gdy nie jest nam potrzebny. Ze względu na wysoką jakość użytych części i dopasowanie co do milimetra, praca z Macbookiem jest przyjemna, a urządzenie nawet po latach użytkowania wygląda jak nowe. Macbook Air czy Macbook Pro - który model wybrać? Jeżeli nie lubimy obchodzić się z systemem Windows, MacOS będzie kolejnym powodem, dla którego warto rozważyć zakup Macbooka. To, jaki konkretnie model wybierzemy powinno zależeć od naszych potrzeb. Osoby pracujące z laptopem, dla których istotne są rozbudowane parametry i więcej opcji oprogramowania powinny zdecydować się na wersję Pro. Z kolei Macbook Air to dobry wybór do codziennego, domowego użytku, gdy chcemy pogodzić dobrą cenę z należytą jakością i wygodą korzystania z zakupionego sprzętu.Więcej na ten temat znajdziesz na stronie: https://www.euro.com.pl/laptopy-i-netbooki,_Apple.bhtml. Dla kogo wybór laptopa od Apple będzie dobrą decyzją? Ekosystem Apple najlepiej będą w stanie wykorzystać osoby, które posiadają już inne urządzenia marki. Jeżeli korzystasz na co dzień z iPhone'a czy iPada, dobranie do nich laptopa z nadgryzionym jabłkiem będzie naturalną konsekwencją, a wszystkie produkty bezproblemowo połączysz ze sobą w jedną zgraną sieć. Bardzo często również warto kupić laptop Apple do zastosowań profesjonalnych - wielu grafików, fotografów, programistów czy montażystów wideo pracuje w oparciu o tę markę. Dzieje się tak nie tylko ze względu na jakość samego urządzenia, ale również dostępność oprogramowania niemożliwego do wykorzystania na systemie Windows. Istnieje również wiele zamienników programów standardowych, jak na przykład oprogramowania Microsoft Office, co umożliwia sprawną pracę biurową oraz kreatywną. O czym jeszcze pamiętać przy zakupie laptopa? Wybierając laptop lub komputer dla siebie powinniśmy przede wszystkim dobrze się zastanowić nad tym, czego oczekujemy od nowego sprzętu. Apple Macbook może być naturalnie dobrą opcją dla wielu osób, jednak jeżeli lepiej czujemy się w środowisku Windows - lub jeżeli wszystkie inne sprzęty, z jakich korzystamy go obsługują - to wybór laptopa z innym oprogramowaniem może nie być najlepszym pomysłem. Będzie nam ciężko skłonić poszczególne produkty do funkcjonowania ze sobą nawzajem, co niepotrzebnie doprowadzi do frustracji i problemów. Wady Macbooka to również wysoka cena, która odstrasza wielu kupców, a także ograniczona paleta kolorów i brak dostępu do aplikacji z systemu Windows. Poszukując nowego komputera lub laptopa dla siebie naturalnie zastanawiamy się, czy lepiej zdecydować się na produkt od Apple, czy może coś bazującego na systemie Windows. Upewnijmy się, że oglądane modele będą w stanie sprostać wyzwaniom, jakie przed nimi postawimy, a także że czas pracy na baterii będzie odpowiadał naszym potrzebom. Dodatkowo również warto pamiętać o różnicach w oprogramowaniu i dostępnych aplikacjach, szczególnie jeżeli planujemy wykorzystać urządzenie do zastosowań profesjonalnych. « powrót do artykułu
  16. W jednym z laboratoriów na Imperial College London odtworzono wirujący dysk plazmy, z tych, jakie otaczają czarne dziury i tworzące się gwiazdy. Eksperyment pozwala lepiej modelować procesy, zachodzące w takich dyskach, a naukowcy mają nadzieję, że dzięki temu dowiedzą się, jak rosną czarne dziury i powstają gwiazdy. Gdy materia zbliża się do czarnej dziury, jest rozgrzewana i staje się plazmą, czwartym stanem materii składającym się z naładowanych jonów i wolnych elektronów. Zaczyna też się obracać, tworząc dysk akrecyjny. W wyniku obrotu powstają siły odśrodkowe odrzucające plazmę na zewnątrz, jednak siły te równoważy grawitacja czarnej dziury. Naukowcy chcą poznać odpowiedź na pytanie, w jaki sposób czarna dziura rośnie, skoro materia – w formie plazmy – pozostaje na jej orbicie. Najbardziej rozpowszechniona teoria mówi, że niestabilności w polu magnetycznym plazmy prowadzą do pojawienia się tarcia, plazma traci energię i wpada do czarnej dziury. Dotychczas mechanizm ten badano za pomocą ciekłych wirujących metali. Za ich pomocą sprawdzano, co dzieje się, gdy pojawi się pole magnetyczne. Jednak metale te zamknięte są w rurach, co nie oddaje w pełni swobodnie poruszającej się plazmy. Doktor Vincente Valenzuela-Villaseca i jego zespół wykorzystali urządzenie Mega Ampere Generator for Plasma Implosion Experiments (MAGPIE) do stworzenia wirującego dysku plazmy. Za jego pomocą przyspieszyli osiem strumieni plazmy i doprowadzili do ich zderzenia, w wyniku czego powstała obracająca się kolumna plazmy. Odkryli, że im bliżej środka, tym plazma porusza się szybciej. To ważna cecha dysków akrecyjnych. MAGPIE generuje krótkie impulsy plazmy, przez co w utworzonym dysku dochodziło tylko do jednego obrotu. Jednak liczbę obrotów będzie można zwiększyć wydłużając czas trwania impulsów plazmy. Przy dłużej istniejących dyskach możliwe będzie też zastosowanie pól magnetycznych i zbadanie ich wpływu na plazmę. Zaczynamy badać dyski akrecyjne w nowy sposób, zarówno za pomocą Teleskopu Horyzontu Zdarzeń, jak i naszego eksperymentu. Pozwoli nam to przetestować różne teorie i sprawdzić, czy zgadzają się one z obserwacjami, mówi Valenzuela-Villaseca. Ze szczegółami badań można zapoznać się na łamach Physical Review Letters. « powrót do artykułu
  17. Rijksmuseum kupiło na Europejskich Targach Sztuk Pięknych (TEFAF) XVII-wieczny kielich ze szkła rubinowego. To jedna z wczesnych prac słynnego mistrza szklarskiego i alchemika - Johanna Kunckela von Löwensterna. Głęboka czerwona barwa szkła rubinowego to efekt dodania do masy szklanej m.in. bardzo rozdrobnionego złota. Połączenie spektakularnego koloru kielicha z wysokiej jakości grawerunkami sprawia, że obiekt staje się nową gwiazdą kolekcji Rijksmuseum - napisano na stronie instytucji. Kunckel prowadził udane badania eksperymentalne nad wytopem szkła rubinowego. Jest autorem podręcznika szklarskiego Ars Vitraria experimentalis. W 1678 r. został zatrudniony przez elektora Brandemburgii Fryderyka Wilhelma. By upewnić się, że mistrz może pracować nad swoim szkłem w tajemnicy, z dala od zazdrosnych oczu konkurentów, elektor podarował mu Pawią Wyspę (Pfaueninsel). Obowiązywał zakaz wstępu na jej teren pod groźbą kary. Sam władca często tam zaś bywał, obserwując postępy czynione przez alchemika i producenta szkła. Wyroby Kunckela cieszyły się dużą popularnością wśród europejskiej elity. Powodem była nie tylko wyjątkowa barwa, ale i magiczne właściwości przypisywane m.in. złotu. Zachowało się zaledwie ok. 20 rubinowych obiektów z tego wczesnego okresu; czara kielicha w kształcie muszli sprawia, że wyróżnia się on na ich tle. Na czarze kielicha zakupionego przez Rijksmuseum przedstawiono scenę z puttami dokazującymi między pędami winorośli. Grawerunki przypisuje się mistrzowi Gottfriedowi Spillerowi. Kielich powstał w Poczdamie, ok. 1685-1690 r. « powrót do artykułu
  18. Ludzkie DNA jest jest wszędzie. W piasku na plaży, w oceanie, unosi się w powietrzu. Bez przerwy rozsiewamy je wokół siebie. Z jednej strony to dobra wiadomość dla naukowców, z drugiej zaś, rodzi to poważne dylematy etyczne. Jak bowiem donoszą naukowcy z University of Florida, którzy przeprowadzili badania nad obecnością DNA H. sapiens w środowisku, rozprzestrzeniany przez nas materiał genetyczny jest bardzo dobrej jakości. Tak dobrej, że możliwe jest zidentyfikowanie mutacji powiązanych z chorobami czy określenie przodków społeczności żyjącej w miejscu pobrania próbek. Można je nawet połączyć z konkretnymi osobami, jeśli oddadzą próbki do badań porównawczych. Z tego wszechobecnego kodu genetycznego mogą korzystać zarówno naukowcy, którzy badając ścieki określą kancerogenne mutacje czy analizując glebę znajdą nieznane osady sprzed wieków, jak i policjanci, analizujący środowiskowe DNA (eDNA) unoszące się w powietrzu na miejscu przestępstwa. Naukowcy z Florydy mówią, że potrzebne są uregulowania prawne i określenie zasad etycznych dotyczących korzystania z DNA pozostawionego w środowisku. Przez cały czas prowadzenia badań nie mogliśmy wyjść ze zdumienia ani nad tym, jak wiele ludzkiego DNA wszędzie znajdujemy, ani nad jego jakością. W większości przypadków jakość ta była niemal tak dobra, jak jakość próbek pobranych bezpośrednio od człowieka, mówi profesor David Duffy, który kierował pracami. Już wcześniej Duffy i jego zespół znakomicie zaawansowali badania nad zagrożonymi żółwiami morskimi i powodowanym przez wirusa nowotworem, który je trapił, pobierając próbki DNA żółwi ze śladów na piasku, pozostawionych przez przemieszczające się zwierzęta. Naukowcy wiedzieli, że ludzkie DNA może trafić do próbek z DNA żółwi. Zaczęli się zastanawiać, jak wiele jest tego ludzkiego DNA w środowisku i jakiej jest ono jakości. Naukowcy znaleźli dobrej jakości ludzkie DNA w oceanie i rzekach w pobliżu swojego laboratorium, zarówno w samym mieście, jak i w odległych regionach, odkryli je też w piasku odizolowanych plaż. Po uzyskaniu zgody od National Park Service naukowcy wybrali się na odległą wyspę, na którą nie zapuszczają się ludzie. Tam ludzkiego DNA nie znaleźli. Byli jednak w stanie zsekwencjonować ludzki genom ze śladów stop pozostawionych na piasku. Duffy wybrał się też na swoją rodzimą Irlandię. Pobierał próbki wzdłuż jednej z rzek i wszędzie znalazł materiał genetyczny ludzi. Wszędzie, z wyjątkiem odległych od osad źródeł rzeki. Naukowcy zbadali też powietrze w klinice weterynaryjnej. Znaleźli tam DNA pracowników, leczonych zwierzą oraz wirusów. Teraz gdy stało się jasne, że ze środowiska z łatwością można pozyskać materiał genetyczny wysokiej jakości, potrzebne są odpowiednie rozwiązania prawne. Za każdym razem, gdy dokonujemy postępu technologicznego, niesie on ze sobą zarówno korzyści, jak i zagrożenia. I tym razem nie jest inaczej. Musimy wcześnie o tym informować, by społeczeństwa zdążyły opracować odpowiednie rozwiązania, mówi Duffy. « powrót do artykułu
  19. Motyle – zarówno te dzienne jaki i nocne, czyli ćmy – to jeden z najbardziej rozpowszechnionych rzędów owadów. Ćmy pojawiły się około 300 milionów lat temu. W 2019 roku dowiedzieliśmy się, że przed około 100 milionami lat grupa nocnych motyli zaczęła latać za dnia, by korzystać z bogatych w nektar kwiatów. Tym samym udowodniono, że nieprawdziwa jest hipoteza, jakoby motyle dzienne pojawiły się już po zagładzie dinozaurów, by uniknąć polujący na ćmy nietoperzy. Dotychczas jednak sądzono, że motyle dzienne po raz pierwszy wyewoluowały w Azji. Teraz okazuje się, że to nieprawda. Akito Kawahara, kurator zbiorów motyli we Florida Museum of Natural History, i jego zespół przeprowadzili analizy genetyczne niemal 2300 gatunków motyli reprezentujących wszystkie rodziny i 92% rodzajów z rzędu Lepidoptera. Stworzyli największe na świecie drzewo genealogiczne motyli i dowiedli, że motyle dzienne po raz pierwszy wzbiły się do lotu w Ameryce Północnej i Środkowej. Żywiły się wówczas roślinami z rodziny bobowatych. To było moje marzenie z dzieciństwa. To coś, co chciałem zrobić od czasu pierwszej wizyty w Amerykańskim Muzeum Historii Naturalnej gdy byłem dzieckiem i gdy na drzwiach biura kuratora zobaczyłem drzewo genealogiczne motyli. To jednocześnie najtrudniejsze badania naukowe, w jakich brałem udział. Wymagały one wielkiego wysiłku ze strony ludzi na całym świecie, cieszy się Kawahara. Obecnie istnieje około 19 000 gatunków motyli dziennych. Zrekonstruowanie ich historii na przestrzeni 100 milionów lat było trudnym zadaniem. Wymagało zebrania danych o miejscach występowania poszczególnych gatunków motyli oraz roślin, z których korzystają. Dane takie nie były jednak przechowywane w jednym miejscu, znaczna ich część nie była zdigitalizowana, konieczne było przeszukiwanie publicznie dostępnych baz danych, poszukiwanie książek oraz artykułów naukowych, tłumaczenie ich z różnych języków, przeglądanie zbiorów muzealnych i innych miejsc, w których znajdowały się użyteczne informacje o motylach. Naukowcy przeanalizowali też 11 niezwykle rzadkich skamieniałości motyli, które wykorzystali do kalibracji swojego drzewa genetycznego. Dzięki temu dowiedzieli się np. że motyle dzienne bardzo szybko się różnicowały, jedne grupy pokonywały w toku ewolucji olbrzymie odległości, inne zaś pozostawały w miejscu, mimo, że wokół nich swój bieg zmieniały rzeki, pojawiały się i znikały pasma górskie, przemieszczały się kontynenty. Dzięki olbrzymiej pracy naukowców wiemy, że motyle dzienne pojawiły się po raz pierwszy gdzieś w Ameryce Środkowej i zachodnich częściach Ameryki Północnej. W tym czasie Ameryka Północna była przedzielona szerokim morzem, a Ameryka Północna i Południowa nie były jeszcze połączone. Mimo to motyle były w stanie pokonywać wielkie przestrzenie nad wodami i podbijały świat. Nie zawsze leciały najkrótszą drogą. Mimo że wówczas Ameryka Południowa i Afryka znajdowały się dość blisko siebie, motyle najpierw przeleciały do Azji, na Bliski Wschód i do Afryki Wschodniej. Dotarły nawet do Indii, które wówczas były wyspą. Największym ich wyczynem było zaś dotarcie do Australii, połączonej wówczas z Antarktyką. Oba kontynenty były ostatnią pozostałością Pangei. Nie można wykluczyć, że motyle żyły przez pewien czas w Antarktyce. A przed około 45 milionami lat zjawiły się w Europie. Nie wiadomo, dlaczego zajęło im to tak dużo czasu, ale skutki tej późnej migracji widać do dzisiaj. W Europie, w porównaniu z innymi kontynentami, nie ma zbyt wielu gatunków motyli. A te które są, często występują w innych częściach świata, na przykład na Syberii i w Azji, mówi Kawhara. Gdy już motyle zasiedlały jakiś obszar, szybko się różnicowały w zależności od występujących na nim roślin. Gdy z Ziemi zniknęły dinozaury, istniały już niemal wszystkie współczesne rodziny motyli, a każda z nich była w sposób szczególny powiązana z konkretnymi roślinami. Gdy naukowcy porównali historię ewolucyjną motyli oraz roślin, na których żerują, stwierdzili, że dochodziło tutaj do wspólnej ewolucji. Naukowcy zauważyli, że obecnie 67,7% gatunków motyli to gatunki, które korzystają z jednej rodziny roślin, a 32,3% gatunków korzysta z dwóch lub więcej rodzin. Motyle żywiące się na bobowatych i wiechlinowatych często korzystają tylko z nich. Większość gatunków nie korzysta z roślin z innych rodzin. Bobowate i wiechlinowate są szeroko rozpowszechnione i występują niemal we wszystkich ekosystemach. Wiekszość z nich posiada też potężne chemiczne środki obronne odstraszające owady. Jednak od milionów lat rośliny te pozwalają, by motyle z nich korzystały. Grupa Kawahary zauważyła też, że aż 94,2% gatunków motyli pożywiających się na więcej niż jednej rodzinie roślin, wybiera rośliny blisko spokrewnione. To zaś potwierdza wcześniejsze badania, z których wynikało, że spokrewnione ze sobą motyle żywią się na spokrewnionych ze sobą roślinach. Ewolucja motyli i roślin okrytonasiennych jest ze sobą nierozerwalnie związana od samych początków istnienia tych roślin, a bliskie związki pomiędzy tymi organizmami doprowadziły do pojawienia się wspaniałej różnorodności i roślin, i zwierząt, dodaje profesor Pamela Soltiz z Florida Museum. « powrót do artykułu
  20. Przed laty pisarze domagali się stworzenia systemu opłat czy rekompensat związanych z niezwykłą łatwością kopiowania i rozpowszechniania ich utworów w świecie cyfrowym. Wiele osób korzystało bowiem z ich pracy nie płacąc twórcom dzieł. Teraz twórcy znowu protestują, a jednym z powodów jest... sztuczna inteligencja. Gildia Pisarzy Ameryki (Writers Guild of America – WGA), związek zawodowy skupiający głównie osoby pracujące w przemyśle filmowym i telewizyjnym, rozpoczęła strajk po tym, jak nie doszła do porozumienia z reprezentującą amerykański przemysł rozrywkowy organizacją Alliance of Motion Picture and Television Producers. Jednym z elementów sporu jest istnienie narzędzi takich jak ChatGPT. WGA chce zakazu wykorzystywania tego typu algorytmów do tworzenia historii i scenariuszy do filmów i programów. Członkowie WGA obawiają się, że przemysł zacznie wykorzystywać algorytmy sztucznej inteligencji do tworzenia scenariuszy, które następnie będą jedynie „wygładzane” przez ludzi. A do tego potrzeba będzie znacznie mniej twórców niż obecnie, co negatywnie wpłynie na zatrudnienie i zarobki w tym dziale gospodarki. WGA proponuje również, by żaden skrypt filmowy czy telewizyjny, który jest objęty grupową umową związkowa, nie był być wykorzystywany do trenowania algorytmów SI. To zresztą echo szerszego sporu dotyczącego tego, czy koncerny stojące za takimi narzędziami jak ChatGPT mają prawo bez zgody właściciela praw autorskich wykorzystywać tekst do trenowania swoich algorytmów. W ten sposób bowiem nie płacą za cudzą pracę, a czerpią z niej zyski. Wielkie studia filmowe i telewizyjne oraz serwisy internetowe nie chcą przystać na powyższe żądania. Są przeciwne stawianiu twardych granic dotyczących wykorzystywania przez nie systemów sztucznej inteligencji. WGA to nie jedyny reprezentant pracowników przemysłu filmowego, który wyraża obawy związane z rozwojem SI. Także związki zawodowe reprezentujące aktorów obawiają się, że systemy SI mogą być w coraz większym stopniu wykorzystywane w rozrywce. I nie są to obawy pozbawione podstaw. WGA stawia tutaj bardzo ważne pytanie. Kto zyska, a kto straci na rozwoju takich systemów, mówi Sarah Myers West z AI Now Institute w Nowym Jorku. Coraz więcej grup zawodowych czuje się zagrożonych przez rozwój systemów sztucznej inteligencji. Maszyny w najbliższych latach będą mogły zastąpić ludzi w wykonywaniu coraz większej liczby czynności. Niedawno IBM poinformował, że z czasem przestanie rekrutować ludzi na stanowiska, na których mogą być zastąpieni przez sztuczną inteligencję. Jako, że rozwoju SI nie można powstrzymać, kluczową staje się odpowiedź na pytanie, kto będzie ten rozwój kontrolował i jak będzie on przebiegał. « powrót do artykułu
  21. Muzeum Vincenta van Gogha w Amsterdamie zmieniło tytuł jednego z obrazów z „Czerwone kapusty i cebule” na „Czerwone kapusty i czosnek”. A wszystko za sprawą czujności jednego ze zwiedzających - kucharza i twórcy sztuk wizualnych Ernsta de Witte. De Witte bywał już wcześniej w Muzeum van Gogha, ale dopiero niedawno podpis pod martwą naturą z 1887 r. przykuł jego uwagę. Coś się nie zgadzało... Ernst ma 20 lat doświadczenia w branży kulinarnej. Obecnie jest szefem kuchni w Restaurant Feu w Utrechcie. Maluje od 4 lat. Jego pasja rozwinęła się w czasie pandemii. Mając pewność co do poprawności swojej identyfikacji, de Witte skontaktował się z muzeum. Przedstawiciele instytucji poprosili o dowody. Kucharz przygotował więc z żoną prezentację, w której pokazał, jak van Gogh malował czosnek i zestawił to z obrazem ze zbiorów Kröller-Müller Museum przedstawiającym cebulę (Stilleven rond een bord met uien). Wśród dostarczonych materiałów znalazł się oprócz tego filmik porównujący różne odmiany czosnku i cebuli. Na główki czosnku w [analizowanym] obrazie van Gogha nałożyłem [też] własny rysunek, by pokazać, że wykonane przez niego linie przedstawiają [właśnie] ząbki czosnku - napisał de Witte w mailu przesłanym serwisowi Artnet News. Wspomagany przez biologa zespół badawczy z Muzeum van Gogha potwierdził, że de Witte ma rację: jeden z obiektów z obrazu był nieprawidłowo identyfikowany od publicznego debiutu dzieła w berlińskiej galerii Paula Cassirera w 1928 r. Rzecznik Muzeum van Gogha przyznał, że instytucja stale monitoruje swoje zbiory i zdarzało się już, że zmieniano tytuł dzieła, ponieważ okazywało się, że przedstawia ono coś innego niż pierwotnie sądzono. Wydarzenia te zainspirowały Ernsta zarówno jako kucharza, jak i malarza. Jako szef kuchni w Restaurant Feu przygotował wyjątkowe danie z czerwonej kapusty i czosnku. Jako artysta posługujący się pędzlem stworzył obraz pt. „Vincent's dinner” (in. „Red Cabbage and Garlic”). Na danie składają się gotowana czerwona kapusta, krem z wędzonego czosnku, coulis z czerwonej kapusty, puder z czerwonej kapusty oraz winegret z absyntem, melisą i estragonem. Jest ono serwowane z piwem warzonym z absyntem. Gdy winegret zetknie się z czerwoną kapustą, kolor zaczyna blednąć, tak jak czerwone/niebieskie barwniki w obrazach van Gogha - tłumaczy de Witte. A z opisu obrazu „Czerwone kapusty i czosnek” na stronie muzeum dowiadujemy się, na przykład, że obrus, który teraz wydaje się szaroniebieski, był niegdyś fioletowy... « powrót do artykułu
  22. Naukowcy z Instytutu Biologii Ssaków (IBS) PAN w Białowieży pochwalili się, że dotarło do nich niezwykłe zwierzę – albinotyczna ryjówka aksamitna. To pierwszy taki znany okaz w Polsce i zaledwie drugi lub trzeci na świecie. Znaleźli go Państwo Wioletta i Jerzy Rybiałek z Dolnego Śląska. Niezwykłe ubarwienie zwierzęcia zaintrygowało ich do tego stopnia, że skontaktowali się z Instytutem. Przy okazji świetnie trafili, gdyż ryjówka widnieje w logo Instytutu. Profesor Jan Wójcik, który od kilkudziesięciu lat bada ryjówki, mówi, że informacja od znalazców zelektryzowała naukowców. Albinizm zdarza się u ryjówek bardzo rzadko. Zorganizowaliśmy transport zamrożonego okazu do Białowieży, aby poddać go bardziej szczegółowym badaniom i określić gatunek znalezionego zwierzęcia, mówi uczony. Naukowcy stwierdzili, że mają do czynienia z ryjówką aksamitną o pełnym albinizmie pokrywy włosowej. W IBS już wcześniej opisano kilka okazów różnych gatunków ryjówek z białym przebarwieniami na futrze, ale w kolekcji zoologicznej instytutu – która jest jedną z największych kolekcji ssaków na świecie – nie ma całkowicie albinotycznego osobnika. Wiemy natomiast, że albinotyczną ryjówkę znaleziono w latach 60. XX wieku w ZSRR. Drugi okaz został znaleziony w latach 80. w Holandii, chociaż prawdopodobnie nie był on całkowicie biały. Albinizm, zwany też bielactwem, pojawia się w wyniku wady genetycznej i polega na zaburzeniach w syntezie melaniny. Albinotyczne osobniki żyją zwykle krócej, gdyż zwracają uwagę swoim ubarwieniem, często cierpią też na problemy ze wzrokiem. Po wstępnych badaniach wyjątkowa ryjówka trafiła z powrotem do zamrażarki, a naukowcy zastanawiają się, jak ją zabezpieczyć i zachować. Chcieliby bowiem mieć możliwość zarówno prowadzenia dalszych badań, jak i wyeksponowania niezwykłego zwierzęcia w swojej kolekcji. Ryjówka trafiła do logo IBS, gdyż właśnie od tego zwierzęcia rozpoczęła się historia instytutu. Jego początki sięgają lat 50. i badań profesora Augusta Dehnela, założyciela i pierwszego dyrektora placówki, który odkrył, że ryjówki zmniejszają rozmiary ciała – w tym mózgu – podczas hibernacji. Od tamtej pory podobne zjawisko zaobserwowano też u innych niewielkich ssaków, a ostatnio udowodniono jego występowanie u kretów. « powrót do artykułu
  23. Głowomłot tropikalny, gatunek ryby z rodziny młotowatych, wstrzymuje oddech by utrzymać temperaturę ciała podczas nurkowania na większe głębokości, gdzie poluje na kałamarnice. To było całkowite zaskoczenie. Nie spodziewaliśmy się, że rekiny wstrzymują oddech podczas nurkowania jak morskie ssaki. To niezwykłe zachowanie wspaniałego zwierzęcia, mówi główny autor badań Mark Royer z Shark Research Group na University of Hawai'i. Skrzela są naturalnymi radiatorami, które szybko doprowadziłyby do wychłodzenia krwi, mięśni i organów, gdyby głowomłoty nie wstrzymywały oddechu. Głowomłot tropikalny życie w ciepłych wodach, ale zanurza się na głębokości, gdzie temperatura wody spada do 5 stopni Celsjusza. By efektywnie polować, jego ciało musi utrzymać ciepło. Oczywistym jest, że oddychające powietrzem atmosferycznym ssaki wstrzymują oddech podczas nurkowania. Ale nie spodziewaliśmy się zaobserwować takiego zachowania u rekinów. To zachowanie wskazuje, że strategie polowania głowomłotów tropikalnych są podobne do strategii ssaków morskich, jak grindwal. Oba gatunki wyewoluowały do polowania na głęboko pływającą zdobycz i oba robią to wstrzymując na krótko oddech w tych fizycznie wymagających środowiskach. Naukowcy z Hawajów dokonali niezwykłego odkrycia po przyczepieniu głowomłotom tropikalnym urządzeń, które mierzyły temperaturę mięśni, głębokość nurkowania, orientację ciała i poziom aktywności. Zauważyli, że mięśnie ryby utrzymywały temperaturę podczas nurkowania na duże głębokości, ale pod koniec każdego nurkowania, gdy rekin zbliżał się do powierzchni, gwałtownie się chłodziły. Model komputerowy zasugerował, że głowomłot musi przestawać oddychać, by zapobiec utraty temperatury przez skrzela. Dodatkowym dowodem był materiał wideo, pokazujący rekina z zamkniętymi skrzelami na głębokości 1044 metrów, podczas gdy przy powierzchni skrzela są szeroko otwarte. Nagłe ochłodzenie mięśni pod koniec nurkowania wskazuje, że rekiny zaczynają oddychać gdy wciąż znajdują się w dość zimnych wodach. Wstrzymanie oddechu zapobiega utracie ciepła, ale odcina dopływ tlenu. Chociaż rekiny te wstrzymują oddech na 17 minut, to na największych głębokościach spędzają tylko 4 minuty, a następnie szybko wracają do cieplejszych dobrze napowietrzonych wód powierzchniowych. Odkrycie to pozwala nam zrozumieć, jak głowomot tropikalny jest w stanie nurkować na znaczne głębokości i zdobywać tam pożywienie. Pokazuje ono również, że ryba musi utrzymać delikatną równowagę fizjologiczną, mówi Royer. « powrót do artykułu
  24. Pierścienie Saturna są bardzo młode, znacznie młodsze niż sama planeta. Fizyk Sascha Kempf z University of Colorado w Boulder dostarczył najsilniejszych dowodów wskazujących, że pierścienie gazowego olbrzyma liczą nie więcej niż 400 milionów lat. Są więc o ponad 4 miliardy lat młodsze niż planeta, którą otaczają. Pierścienie zatem to króciutki epizod w historii planety. Tym bardziej, że z danych przekazanych przez sondę Cassini wynika, iż Saturn szybko niszczy swoje pierścienie. Pierścienie jako pierwszy zauważył Galileusz w 1610 roku. Nie wiedział jednak, czym są. Na jego rysunkach wyglądają nieco podobnie jak uszy dzbana. Dopiero w XIX wieku James Scott Maxwell stwierdził, że pierścienie nie są strukturą stałą, a zbudowaną z wielu indywidualnych części. Obecnie wiemy, że Saturn posiada 7 pierścieni zbudowanych z kawałków lody, a większość z nich jest mniejsza niż głazy na Ziemi. W sumie jednak lód ten ma taką masę jak połowa masy księżyca Mimas. Przez większość XX wieku astronomowie sądzili, że pierścienie powstały jednocześnie z planetą. Nie potrafili jednak wyjaśnić, dlaczego są one tak „czyste”. Obserwacje wskazywały bowiem, że w 98% zbudowane są z lodu. Było niemal niemożliwe, by materiał skalny stanowił tak niewielki odsetek pierścieni istniejących przez miliardy lat. Misja sondy Cassini, która przybyła w okolice Saturna w 2004 roku, stała się niepowtarzalną okazją do wyjaśnienia zagadki pierścieni. Sonda miała na pokładzie urządzenie o nazwie Cosmic Dust Analyzer, w który łapała kawałki międzyplanetarnego pyłu. W ciągu 13 lat złapała zaledwie 163 ziarna pyłu znajdującego się w sąsiedztwie Saturna. To jednak wystarczyło Kempfowi i jego kolegom. Na podstawie danych zebranych przez Cassini obliczyli oni, że każdego roku na lodowe pierścienie opada znacznie mniej niż 1 gram pyłu na stopę kwadratową powierzchni. To bardzo mało, ale gromadzi się on latami, więc stanowi coraz większy odsetek materiału pierścieni. Biorąc zaś pod uwagę wielkość pierścieni, stosunek pyłu do lodu oraz tempo opadania pyłu na pierścienie, naukowcy mogli wyliczyć maksymalny wiek pierścieni. Już wcześniej uważano, że pierścienie są bardzo młode, jednak nikt dotychczas nie dostarczył równie przekonujących dowodów. W najbliższych latach powinniśmy poznać kolejne tajemnice pierścieni Saturna. W przyszłym roku ma bowiem wystartować misja Europa Clipper, na pokładzie której znajdzie się znacznie bardziej zaawansowany analizator pyłu. « powrót do artykułu
  25. Niedawna decyzja prezydenta Nigerii wywołała burzę w niemieckim parlamencie oraz krytykę ze strony opozycji, która nazwała naiwnym bezwarunkowy zwrot zrabowanych zabytków. To, co dzieje się w Niemczech i Nigerii jest uważnie obserwowane przez muzea na całym świecie i może zaważyć na losie wielu słynnych zabytków, które trafiły do Europy w epoce kolonialnej. W ostatnich latach doszło do wyraźnego zintensyfikowania debaty nad zwrotem dzieł sztuki byłym europejskim koloniom. Najsłynniejszym przykładem takich dzieł są słynne brązy z Beninu. To zbiór tysięcy wspaniałych rzeźb i plakietek o wysokiej wartości artystycznej, które powstawały przez setki lat i zdobiły pałac władcy Królestwa Beninu. To wyjątkowe zabytki, a ich historia jest na tyle dobrze znana, że nie ma wątpliwości, w jaki sposób trafiły poza Benin. Zostały zrabowane z pałacu królewskiego w czasie brytyjskiej ekspedycji karnej w 1897 roku. Obecnie dwa największe zbiory brązów z Beninu znajdują się w Berlinie i Londynie. Nigeria, na której terenie leży dawne Królestwo Beninu, od kilkudziesięciu lat stara się o zwrot brązów. Niedawno rząd Niemiec oficjalnie uznał, że ponad 1100 zabytków z pięciu muzeów, należy do Nigerii. Tym samym Niemcy stały się pierwszym krajem, który jasno zobowiązał się do zwrotu brązów z Beninu. W ubiegłym roku 22 brązy trafiły bez żadnych warunków wstępnych do Nigerii. A przed kilkoma tygodniami prezydent tego kraju wydał dekret, zgodnie z którym zabytki te są własnością oby (króla) Beninu, Ewuare II. Co więcej, w dekrecie odchodzącego prezydenta czytamy, że także i zwrócone w przyszłości brązy staną się własnością króla. Ewuare II będzie decydował, gdzie zabytki się znajdują. To zaś wzbudziło obawy, że brązy trafią do prywatnej kolekcji i będą niedostępne dla osób postronnych. Tym bardziej, że decyzja prezydenta wyraźnie pomija Narodową Komisję Muzeów i Zabytków, która prowadzi negocjacje w sprawie zwrotu zabytków. Komisja nie zajęła oficjalnego stanowiska w tej sprawie, podobno jednak chce wprowadzenia poprawek do prezydenckiego rozporządzenia. Działania prezydenta mogą też wskazywać, że wszelkie zwracane Nigerii zabytki mogą stać się prywatną własnością spadkobierców tradycyjnych władców czy plemion. Niemieccy urzędnicy przyznają nieoficjalnie, że są zaskoczeni. Negocjowaliśmy z rządem Nigerii przekazanie brązów Narodowej Komisji Muzeów i Zabytków, podpisaliśmy umowy z Komisją. Komu tak naprawdę je oddajemy?, pytają. Niejasności wokół dalszych losów brązów z Beninu już mają swoje konsekwencje. Muzeum Archeologii i Antropologii Cambridge University odwołało zaplanowane na jutro przekazanie 116 brązów nigeryjskiej delegacji. A opozycyjni posłowie w Bundestagu krytykują rząd za podjęcie „naiwnej” decyzji. Strona rządowa, broniąc się przed oskarżeniami, mówi, że stawianie warunków dotyczących zwracanych zabytków byłoby ze strony Niemiec przejawem neokolonializmu. Postępowanie rządu Nigerii oraz oby Beninu będzie z pewnością szczegółowo śledzone przez rządy oraz instytucje kultury z Europy i niewątpliwie wpłynie na dalsze kwestie związane ze zwrotem zabytków byłym koloniom. « powrót do artykułu
×
×
  • Dodaj nową pozycję...