Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Gnu mają superwydajne mięśnie

Rekomendowane odpowiedzi

Gnu potrafią migrować w upale, nie pijąc nawet do 5 dni. Okazuje się, że zawdzięczają to m.in. superwydajnym mięśniom.

Kiedyś uważano, że gnu zatrzymują się każdego dnia u wodopoju. Gdy okazało się, że to nieprawda, brytyjsko-botswański zespół postanowił sprawdzić, jak antylopy, które wędrując, pokonują niekiedy 1900 km, tego dokonują.

Naukowcy znieczulili kilka osobników i pobrali próbki mięśni. Później działano na nie prądem, mierząc ilość wydzielanego ciepła. Ustalono, że ok. 62,6% energii zużywanej przez mięśnie przeznaczano na ruch, a tylko 1/3 ulegała stracie w postaci ciepła.

Autorzy publikacji z pisma Nature podkreślają, że wyższą wydajność osiągnęły tylko żółwie. Większość zwierząt ma o wiele mniej wydajne mięśnie, a średnia wynosi tylko 25%.

Dzięki superwydajnym mięśniom można pokonywać bez picia dłuższe trasy (mniejsza utrata ciepła oznacza, że do chłodzenia potrzeba mniej wody).


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      CERN pochwalił się osiągnięciem przez Wielki Zderzacz Hadronów (LHC) rekordowej świetlności. Obok energii wiązki, w przypadku LHC maksymalna energia każdej z wiązek ma wynieść 7 TeV (teraelektronowoltów), to właśnie świetlność jest najważniejszym parametrem akceleratora. Zintegrowana świetlność to najbardziej interesujący fizyka parametr urządzenia. Oznacza ona liczbę zderzeń zachodzących w urządzeniu. A im więcej zderzeń, tym więcej danych dostarcza akcelerator.
      Jednostką świetlności jest odwrócony barn (b-1) lub jego jednostki pochodne, jak femtobarny (fb-1). W trakcie pierwszej kampanii naukowej (Run 1), która prowadzona była w latach 2010–2012 średnia zintegrowana świetlność LHC wyniosła 29,2 fb-1. Przez kolejne lata akcelerator był remontowany i rozbudowywany. Druga kampania naukowa miała miejsce w latach 2015–2018. Wówczas, w ciągu czterech lat pracy, akcelerator osiągnął średnią zintegrowaną świetlnośc 159,8 fb-1.
      Obecnie trwająca kampania, zaplanowana na lata 2022–2025, rozpoczęła się zgodnie z planem. W roku 2022 efektywny czas prowadzenia zderzeń protonów wyniósł 70,5 doby, a średnia zintegrowana świetlność osiągnęła poziom 0,56 fb-1 na dzień. W roku 2023 rozpoczęły się problemy. Niezbędne naprawy urządzenia zajmowały więcej czasu niż planowano i przez cały rok zderzenia protonów prowadzono jedynie przez 47,5 dnia, jednak średnia zintegrowana świetlność wyniosła 0,71 fb-1 na dzień.
      Bieżący rok jest zaś wyjątkowy. Wydajność LHC przewyższyła oczekiwania. Do 2 września 2024 roku akcelerator zderzał protony łącznie przez 107 dni, osiągając przy tym średnią zintegrowaną jasność rzędu 0,83 fb-1 na dzień. Dzięki temu na kilka miesięcy przed końcem trzeciego roku obecnej kampanii naukowej jego średnia zintegrowana świetlność wyniosła 160,4 fb-1, jest zatem większa niż przez cztery lata poprzedniej kampanii.
      W bieżącym roku LHC ma też przeprowadzać zderzenia jonów ołowiu. Zanim jednak do tego dojdzie, będzie przez 40 dni pracował z protonami. Powinno to zwiększyć jego zintegrowaną świetlność o koleje 33 fb-1. To o 12 fb-1 więcej niż zaplanowano na bieżący rok.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy z kilku brytyjskich uniwersytetów szczegółowo zbadali strongmana Eddiego Halla – człowieka, który w martwym ciągu podniósł 500 kg. – i ze zdumieniem stwierdzili, że w podnoszeniu tak wielkich ciężarów bardzo ważną rolę odgrywają mięśnie, którym dotychczas nie przypisywano tak dużego znaczenia. Eddie został poddany serii testów siłowych oraz skanowaniu za pomocą rezonansu magnetycznego, a jego strukturę mięśni i ścięgien porównano z danymi innych ludzi, zarówno trenujących sporty, jak i nietrenujących.
      Badania wykazały, że masa mięśniowa dolnej części ciała Eddiego była o 96% większa, niż masa mięśniowa przeciętnego niewytrenowanego mężczyzny. Największe różnice – od 120 do 202 procent – zauważono w mięśniach stóp odpowiedzialnych m.in. za rozciąganie palców oraz stabilizację ścięgien pod obciążeniem oraz grupie mięśni stabilizujących miednicę i uda. Duża różnica masy, sięgająca 100%, występowała też w mięśniu czworogłowym uda. Wszystkie wymienione mięśnie były kluczowe dla zadań, jakie wykonują strongmani, takich jak podnoszenie, noszenie i ciągnięcie ciężarów.
      Inne mięśnie okazały się znacznie mniej istotne. Na przykład mięśnie odpowiedzialne za zginanie stawu biodrowego były u Eddiego „zaledwie” o 23–65 procent większe niż u przeciętnego nietrenującego mężczyzny. A więzadło rzepki było o 30% grubsze, mimo że jest ono połączone z grubszym o 100% mięśniem czworogłowym uda.
      Największą jednak niespodziankę sprawiły mięśnie stabilizujące miednicę i uda. Spodziewaliśmy się, że u Eddiego – strongmana i rekordzisty w martwym ciągu – najbardziej rozwinięte będą mięśnie odpowiedzialne za zginanie kolan i stawów biodrowych. Miał je dobrze rozwinięte, ale zaskoczyło nas, że najbardziej rozwinięte miał mięśnie stabilizujące miednicę i uda: mięsień krawiecki, mięsień smukły i mięsień półścięgnisty. To wskazuje, że mięśnie te odgrywają większą rolę w podnoszeniu i noszeniu ciężarów, niż dotychczas przypuszczaliśmy, mówi profesor Jonathan Folland. A doktor Tom Balshaw dodaje, że zrozumienie siły i budowy mięśni ważne jest zarówno dla sportowców, jak i dla zdrowego starzenia się. Wciąż jednak mamy ograniczoną wiedzę dotyczącą ludzi o ekstremalnej sile, stwierdza uczony.
      Ze szczegółami badań można zapoznać się na łamach Journal of Applied Physiology.


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      ChatGPT od kilku miesięcy jest używany w codziennej pracy przez wiele osób i wciąż budzi skrajne emocje. Jedni podchodzą do niego entuzjastycznie, mówiąc o olbrzymiej pomocy, jaką udziela podczas tworzenia różnego rodzaju treści, inni obawiają się, że ta i podobne technologie odbiorą pracę wielu ludziom. Dwoje doktorantów ekonomii z MIT poinformowało na łamach Science o wynikach eksperymentu, w ramach którego sprawdzali, jak ChatGPT wpływa na tempo i jakość wykonywanej pracy.
      Shakked Noy i Whitney Zhang poprosili o pomoc 453 marketingowców, analityków danych oraz innych profesjonalistów, którzy ukończyli koledż. Ich zadaniem było napisanie dwóch tekstów, jakich tworzenie jest częścią ich pracy zawodowej – relacji prasowej, raportu czy analizy. Połowa z badanych mogła przy drugim z zadań skorzystać z ChataGPT. Teksty były następnie oceniane przez innych profesjonalistów pracujących w tych samych zawodach. Każdy tekst oceniały 3 osoby, nadając mu od 1 do 7 punktów.
      Okazało się, że osoby, które używały ChataGPT kończyły postawione przed nimi zadanie o 40% szybciej, a ich prace były średnio o 18% lepiej oceniane, niż osób, które z Chata nie korzystały. Ci, którzy już potrafili tworzyć wysokiej jakości treści, dzięki ChatowiGPT tworzyli je szybciej. Z kolei główną korzyścią dla słabszych pracowników było poprawienie jakości ich pracy.
      ChatGPT jest bardzo dobry w tworzeniu tego typu treści, więc użycie go do zautomatyzowania pracy zaoszczędza sporo czasu. Jasnym jest, że to bardzo użyteczne narzędzie w pracy biurowej, będzie ono miało olbrzymi wpływ na strukturę zatrudnienia, mówi Noy.
      Oceniający teksty nie sprawdzali jednak, czy ich treść jest prawdziwa. A warto podkreślić, że odpowiedzi generowane przez ChatGPT i inne podobne modele często są mało wiarygodne. Modele te są bowiem bardzo dobre w przekonującym prezentowaniu fałszywych informacji jako prawdziwe. Przypomnijmy, że w ubiegłym miesiącu sąd w Nowym Jorku nałożył grzywnę na firmę prawniczą, która użyła ChataGPT do sporządzenia opinii prawnej pełnej fałszywych cytatów z rzekomych wyroków sądowych. Co więcej, prawnicy byli tak pewni, że algorytm dobrze wykonał zadanie, iż upierali się, że cytaty są prawdziwe. Postęp technologiczny jest powszechny i nie ma niczego niewłaściwego w używaniu narzędzi sztucznej inteligencji. Jednak istniejące zasady nakazują prawnikom upewnienie się, że treści składanych przez nich dokumentów są prawdziwe, stwierdził sędzia Kevin Castel.
      O ile zatem  narzędzia takie jak ChatGPT mogą usprawnić pisanie tekstów czy podnieść ich jakość, to człowiek musi sprawdzić, czy w tekście zawarte zostały prawdziwe informacje.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Cyfrowa rekonstrukcja mięśni słynnej Lucy, przedstawicielki gatunku Australopithecus afarensis, pokazuje, że potężna mięśnie nóg i miednicy były przystosowane do chodzenia pod drzewach, ale mięśnie kolan pozwalały na przyjęcie w pełni wyprostowanej postawy. Lucy żyła na terenie dzisiejszej Etiopii przed ponad 3 milionami lat. Jej skamieniałe szczątki odkryto w latach 70. ubiegłego wieku. Teraz doktor Ashleigh Wiseman z Wydziału Archeologii Cambridge University wykonała trójwymiarową rekonstrukcję jej mięśni.
      Lucy to przykład jednego z najlepiej zachowanych szkieletów rodzaju Australopithecus. Doktor Wiseman wykorzystała opublikowane ostatnio dane i była w stanie odtworzyć po 36 mięśni w każdej z nóg Lucy. Symulacja wykazała, że australopitek był znacznie mocnej umięśniony niż człowiek współczesny. Na przykład główne mięśnie w łydkach i udach były dwukrotnie większe niż u H. sapiens. My mamy znacznie większy stosunek tłuszczu do mięśni. U człowieka współczesnego mięśnie stanowią 50% masy uda. U Lucy było to nawet 74%.
      Paleoantropolodzy sprzeczają się, jak Lucy chodziła. Według jednych, jej sposób poruszania się przypominał kaczy chód, jaki widzimy u szympansów, gdy chodzą na dwóch nogach. Zdaniem innych, jej ruchy były bardziej podobne do naszego chodu w pozycji całkowicie wyprostowanej. W ciągu ostatnich 20 lat przewagę zaczęła zdobywać ta druga opinia. Badania Wiseman to kolejny argument za w pełni wyprostowaną Lucy. Wynika z nich bowiem, że mięśnie prostowniki stawu kolanowego, do których należą mięsień czworogłowy uda, naprężacz powięzi szerokiej uda, krawiecki i stawowy kolana, i dźwignia jaką zapewniały, pozwalały na wyprostowanie kolana w takim samym stopniu jak u zdrowego H. sapiens.
      Możemy stwierdzić zdolność Lucy do poruszania się w pozycji wyprostowanej tylko wówczas, jeśli zrekonstruujemy mięśnie i sposób ich pracy. Obecnie jesteśmy jedynym zwierzęciem, które jest w stanie stać w pozycji wyprostowanej z wyprostowanymi kolanami. Budowa mięśni Lucy wskazuje, że poruszała się w pozycji wyprostowanej równie sprawnie jak my. Także wówczas, gdy przebywała na drzewie. Lucy prawdopodobnie poruszała się w sposób, jakiego obecnie nie obserwujemy u żadnego żyjącego gatunku, mówi Wiseman.
      Australopithecus afarensis żył na rozległych sawannach oraz w gęstych lasach. Wykonana przez Wiseman rekonstrukcja pokazuje, że w obu tych środowiskach poruszał się równie sprawnie.
      Rekonstrukcja mięśni była już wykorzystywana na przykład do oceny prędkości biegu gatunku Tyrannosaurus rex. Wykorzystując podobną technikę do badania naszych przodków możemy odkryć całe spektrum sposobów poruszania się, które napędzały naszą ewolucję. W tym i te zdolności, które utraciliśmy, mówi Wiseman.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Pozycjonowanie to szereg działań, które na celu mają zwiększenie widoczności strony www lub sklepu e-commerce w organicznych wynikach wyszukiwania. W dzisiejszym, cyfrowym świecie, gdzie miliony stron konkurują o uwagę użytkowników, efektywne SEO jest niezbędne. W naszym artykule omówimy kluczowe czynniki wpływające na SEO, w tym kwestie dotyczące wydajności strony, na przykład metrykę Contentful Paint (FCP) i inne.
      Zapraszamy do zapoznania się z artykułem -agencja SEO/SEM 1stplace.pl.
      Pozycjonowanie stron i sklepów e-commerce
      Jak już wspominaliśmy powyżej, pozycjonowanie ma na celu poprawę widoczności strony w organicznych wynikach wyszukiwania. Wyższa pozycja w Google oznacza większą widoczność, więcej ruchu na stronie, a tym samym potencjalnie większe zyski.
      Pomimo że podstawy pozycjonowania mogą wydawać się proste, cały proces wymaga specjalistycznej wiedzy i ciągłego monitorowania zmieniających się algorytmów wyszukiwarek. Właśnie dlatego, wiele firm decyduje się na skorzystanie z usług agencji e-marketingowej.
      Agencje e-marketingowe, specjalizujące się w SEO, dysponują niezbędnym doświadczeniem i narzędziami do skutecznego pozycjonowania strony. Specjaliści opracują kompleksową strategię, obejmującą optymalizację on-site i off-site, przeprowadzają analizę słów kluczowych, przygotują treści. Skorzystanie z usług profesjonalnej agencji może przynieść wiele korzyści Twojej firmie.
      Pozycjonowanie - działania on-site i off-site
      Pozycjonowanie stron to proces, który obejmuje wiele różnych elementów i strategii. Zrozumienie, jak te elementy współgrają ze sobą, jest kluczowe dla uzyskania satysfakcjonujących efektów.
      W procesie SEO mówimy o działaniach on-site i off-site.
      On-page SEO
      Działania on-page dotyczą prac przeprowadzanych bezpośrednio na stronie www. Są to elementy, które możesz kontrolować i optymalizować.
      Zawartość: Google ceni unikalne, świeże i wartościowe treści, które są użyteczne dla użytkowników. Treści powinny być napisane w jasny i zrozumiały sposób, z użyciem odpowiednich słów kluczowych. Słowa kluczowe: Słowa kluczowe to ważny element pozycjonowania. Muszą być odpowiednio dobrane i używane w treści, metatagach i URLach. Dzięki temu zarówno roboty Google, jak i użytkownicy,  zrozumieją tematykę strony. Meta tagi: Meta tagi, takie jak meta tytuł i opis meta, pomagają wyszukiwarkom (i użytkownikom), zrozumieć, co znajduje się na stronie. Meta dane powinny być unikalne dla każdej podstrony i zawierać odpowiednie słowa kluczowe. URL: Struktura URL powinna być jasna, zawierać słowa kluczowe, które pomagają zrozumieć, co znajduje się na danej podstronie. Szybkość ładowania strony: Wolno ładujące się strony mogą zniechęcić użytkowników, co poskutkuje wyższym współczynnikiem odrzuceń. Dlatego ważne jest, aby strona ładowała się szybko. Optymalizacja pod kątem urządzeń mobilnych: Liczba użytkowników korzystających z internetu za pomocą telefonów i tabletów wciąż wzrasta. Właśnie dlatego, optymalizacja strony pod kątem urządzeń mobilnych jest niezbędna. Strona powinna być responsywna, czyli dostosowywać swój wygląd i funkcje do rozmiaru ekranu urządzenia, na którym jest wyświetlana. Linki wewnętrzne: Linki prowadzące do różnych podstron w obrębie Twojej witryny pomagają w nawigacji, zwiększają crawl budget. Off-page SEO
      Czynniki off-page odnoszą się do działań poza stroną. Jest to przede wszystkim linkowanie zewnętrzne. Backlinki, czyli linki z innych stron, prowadzące na Twoją witrynę, mogą znacznie poprawić pozycję strony. Google traktuje wartościowe odnośniki, jak głosy oddane na Twoją witrynę.
      Czynniki wydajności strony www
      Wydajność strony internetowej odnosi się do prędkości i płynności działania. Jest to kluczowa kwestia, wpływająca na wrażenia użytkowników, jak i na wyniki pozycjonowania.
      First Contentful Paint (FCP) znaczenie i optymalizacja
      First Contentful Paint (https://1stplace.pl/blog/first-contentful-paint-fcp-czym-jest-dlaczego-jest-wazny/) to metryka, która mierzy czas od rozpoczęcia ładowania strony do momentu, gdy pierwszy element (np. obrazek, tekst), jest renderowany na ekranie. Jest to kluczowy wskaźnik, stanowiący sygnał dla użytkownika, że strona się ładuje.
      Wysokie wartości FCP mogą sugerować, że użytkownik przez dłuższy czas widzi pusty ekran. Może to prowadzić do frustracji i potencjalnie zniechęcić odwiedzającego do dalszego korzystania ze strony. Optymalizacja FCP jest więc niezbędna dla dobrej wydajności strony.
      Inne czynniki wydajności strony www
      Oprócz FCP istnieją inne metryki wydajności, które są ważne dla doświadczenia użytkownika i mogą wpływać na pozycjonowanie strony. Poniżej omawiamy metryki Core Web Vitals.
      Largest Contentful Paint (LCP): Metryka mierzy czas ładowania największego elementu widocznego na stronie (grafiki, treści, video). Wysokie wartości LCP wskazują na problemy z wydajnością, które mogą wpływać na satysfakcję użytkownika. First Input Delay (FID): FID mierzy czas od momentu interakcji użytkownika ze stroną (np. kliknięcie przycisku), do momentu odpowiedzi na tę akcję. Wysoki FID może być frustrujący dla użytkowników, którzy oczekują natychmiastowej reakcji na swoje działania. Cumulative Layout Shift (CLS): CLS odnosi się do przesunięć elementów strony. Niezwiązane z intencją użytkownika przesunięcia elementów mogą być irytujące, prowadzić do przypadkowych kliknięć, a w konsekwencji do opuszczenia strony. Pamiętaj, że wszystkie te metryki są ściśle powiązane z doświadczeniem użytkownika. Im szybciej strona ładuje się i reaguje na interakcje, tym lepsze wrażenie robi na użytkownikach, co z kolei wpływa na SEO.
      Optymalizacja metryk wydajności
      Optymalizacja wymienionych metryk wydajności jest bardzo istotna. Pierwszym krokiem powinno być znalezienie i zrozumienie przyczyny problemów z wydajnością. Kolejny krok to podjęcie odpowiednich działań. Oto kilka strategii, które mogą pomóc:
      Optymalizacja obrazów: Duże, ciężkie obrazy mogą spowolnić ładowanie strony. Warto kompresować obrazy, używać formatów obrazów nowej generacji, takich jak WebP, zastosować technikę ładowania leniwego (lazy loading). Optymalizacja kodu: Usuwanie niepotrzebnego kodu, optymalizacja plików CSS i JavaScript oraz optymalizacja porządku ładowania zasobów mogą przyspieszyć ładowanie strony. Unikanie dużej ilości reklam: Zbyt wiele reklam na stronie może spowolnić jej ładowanie i wpływać na metryki, takie jak CLS. Optymalizacja serwera: Wysokiej jakości, zaufany serwer to kolejny krok do sprawnie działającej witryny. Narzędzia do pomiaru wydajności strony
      Istnieje wiele narzędzi, które pomagają mierzyć wydajność strony. Są to:
      Google PageSpeed Insights to narzędzie od Google, które analizuje wydajność strony i daje sugestie dotyczące optymalizacji. Lighthouse to otwarte narzędzie do testowania wydajności, dostępności i innych aspektów stron internetowych. WebPageTest to kolejne popularne narzędzie, które pozwala na szczegółową analizę wydajności strony. Podsumowanie
      Pozycjonowanie stron jest skomplikowanym procesem, który obejmuje wiele czynników. Działania on-page, off-page, wydajność strony, np. FCP, wszystko to ma wpływ na to, jak strona oceniana jest przez roboty i przez użytkowników.
      Pamiętaj, że SEO to proces ciągły. Wymaga regularnego monitorowania i optymalizacji, aby strona pozostała konkurencyjna. Korzystanie z narzędzi do mierzenia wydajności strony może pomóc w zrozumieniu, jak strona działa i jakie elementy wymagają poprawy.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...