Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Gnu mają superwydajne mięśnie

Rekomendowane odpowiedzi

Gnu potrafią migrować w upale, nie pijąc nawet do 5 dni. Okazuje się, że zawdzięczają to m.in. superwydajnym mięśniom.

Kiedyś uważano, że gnu zatrzymują się każdego dnia u wodopoju. Gdy okazało się, że to nieprawda, brytyjsko-botswański zespół postanowił sprawdzić, jak antylopy, które wędrując, pokonują niekiedy 1900 km, tego dokonują.

Naukowcy znieczulili kilka osobników i pobrali próbki mięśni. Później działano na nie prądem, mierząc ilość wydzielanego ciepła. Ustalono, że ok. 62,6% energii zużywanej przez mięśnie przeznaczano na ruch, a tylko 1/3 ulegała stracie w postaci ciepła.

Autorzy publikacji z pisma Nature podkreślają, że wyższą wydajność osiągnęły tylko żółwie. Większość zwierząt ma o wiele mniej wydajne mięśnie, a średnia wynosi tylko 25%.

Dzięki superwydajnym mięśniom można pokonywać bez picia dłuższe trasy (mniejsza utrata ciepła oznacza, że do chłodzenia potrzeba mniej wody).


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      ChatGPT od kilku miesięcy jest używany w codziennej pracy przez wiele osób i wciąż budzi skrajne emocje. Jedni podchodzą do niego entuzjastycznie, mówiąc o olbrzymiej pomocy, jaką udziela podczas tworzenia różnego rodzaju treści, inni obawiają się, że ta i podobne technologie odbiorą pracę wielu ludziom. Dwoje doktorantów ekonomii z MIT poinformowało na łamach Science o wynikach eksperymentu, w ramach którego sprawdzali, jak ChatGPT wpływa na tempo i jakość wykonywanej pracy.
      Shakked Noy i Whitney Zhang poprosili o pomoc 453 marketingowców, analityków danych oraz innych profesjonalistów, którzy ukończyli koledż. Ich zadaniem było napisanie dwóch tekstów, jakich tworzenie jest częścią ich pracy zawodowej – relacji prasowej, raportu czy analizy. Połowa z badanych mogła przy drugim z zadań skorzystać z ChataGPT. Teksty były następnie oceniane przez innych profesjonalistów pracujących w tych samych zawodach. Każdy tekst oceniały 3 osoby, nadając mu od 1 do 7 punktów.
      Okazało się, że osoby, które używały ChataGPT kończyły postawione przed nimi zadanie o 40% szybciej, a ich prace były średnio o 18% lepiej oceniane, niż osób, które z Chata nie korzystały. Ci, którzy już potrafili tworzyć wysokiej jakości treści, dzięki ChatowiGPT tworzyli je szybciej. Z kolei główną korzyścią dla słabszych pracowników było poprawienie jakości ich pracy.
      ChatGPT jest bardzo dobry w tworzeniu tego typu treści, więc użycie go do zautomatyzowania pracy zaoszczędza sporo czasu. Jasnym jest, że to bardzo użyteczne narzędzie w pracy biurowej, będzie ono miało olbrzymi wpływ na strukturę zatrudnienia, mówi Noy.
      Oceniający teksty nie sprawdzali jednak, czy ich treść jest prawdziwa. A warto podkreślić, że odpowiedzi generowane przez ChatGPT i inne podobne modele często są mało wiarygodne. Modele te są bowiem bardzo dobre w przekonującym prezentowaniu fałszywych informacji jako prawdziwe. Przypomnijmy, że w ubiegłym miesiącu sąd w Nowym Jorku nałożył grzywnę na firmę prawniczą, która użyła ChataGPT do sporządzenia opinii prawnej pełnej fałszywych cytatów z rzekomych wyroków sądowych. Co więcej, prawnicy byli tak pewni, że algorytm dobrze wykonał zadanie, iż upierali się, że cytaty są prawdziwe. Postęp technologiczny jest powszechny i nie ma niczego niewłaściwego w używaniu narzędzi sztucznej inteligencji. Jednak istniejące zasady nakazują prawnikom upewnienie się, że treści składanych przez nich dokumentów są prawdziwe, stwierdził sędzia Kevin Castel.
      O ile zatem  narzędzia takie jak ChatGPT mogą usprawnić pisanie tekstów czy podnieść ich jakość, to człowiek musi sprawdzić, czy w tekście zawarte zostały prawdziwe informacje.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Cyfrowa rekonstrukcja mięśni słynnej Lucy, przedstawicielki gatunku Australopithecus afarensis, pokazuje, że potężna mięśnie nóg i miednicy były przystosowane do chodzenia pod drzewach, ale mięśnie kolan pozwalały na przyjęcie w pełni wyprostowanej postawy. Lucy żyła na terenie dzisiejszej Etiopii przed ponad 3 milionami lat. Jej skamieniałe szczątki odkryto w latach 70. ubiegłego wieku. Teraz doktor Ashleigh Wiseman z Wydziału Archeologii Cambridge University wykonała trójwymiarową rekonstrukcję jej mięśni.
      Lucy to przykład jednego z najlepiej zachowanych szkieletów rodzaju Australopithecus. Doktor Wiseman wykorzystała opublikowane ostatnio dane i była w stanie odtworzyć po 36 mięśni w każdej z nóg Lucy. Symulacja wykazała, że australopitek był znacznie mocnej umięśniony niż człowiek współczesny. Na przykład główne mięśnie w łydkach i udach były dwukrotnie większe niż u H. sapiens. My mamy znacznie większy stosunek tłuszczu do mięśni. U człowieka współczesnego mięśnie stanowią 50% masy uda. U Lucy było to nawet 74%.
      Paleoantropolodzy sprzeczają się, jak Lucy chodziła. Według jednych, jej sposób poruszania się przypominał kaczy chód, jaki widzimy u szympansów, gdy chodzą na dwóch nogach. Zdaniem innych, jej ruchy były bardziej podobne do naszego chodu w pozycji całkowicie wyprostowanej. W ciągu ostatnich 20 lat przewagę zaczęła zdobywać ta druga opinia. Badania Wiseman to kolejny argument za w pełni wyprostowaną Lucy. Wynika z nich bowiem, że mięśnie prostowniki stawu kolanowego, do których należą mięsień czworogłowy uda, naprężacz powięzi szerokiej uda, krawiecki i stawowy kolana, i dźwignia jaką zapewniały, pozwalały na wyprostowanie kolana w takim samym stopniu jak u zdrowego H. sapiens.
      Możemy stwierdzić zdolność Lucy do poruszania się w pozycji wyprostowanej tylko wówczas, jeśli zrekonstruujemy mięśnie i sposób ich pracy. Obecnie jesteśmy jedynym zwierzęciem, które jest w stanie stać w pozycji wyprostowanej z wyprostowanymi kolanami. Budowa mięśni Lucy wskazuje, że poruszała się w pozycji wyprostowanej równie sprawnie jak my. Także wówczas, gdy przebywała na drzewie. Lucy prawdopodobnie poruszała się w sposób, jakiego obecnie nie obserwujemy u żadnego żyjącego gatunku, mówi Wiseman.
      Australopithecus afarensis żył na rozległych sawannach oraz w gęstych lasach. Wykonana przez Wiseman rekonstrukcja pokazuje, że w obu tych środowiskach poruszał się równie sprawnie.
      Rekonstrukcja mięśni była już wykorzystywana na przykład do oceny prędkości biegu gatunku Tyrannosaurus rex. Wykorzystując podobną technikę do badania naszych przodków możemy odkryć całe spektrum sposobów poruszania się, które napędzały naszą ewolucję. W tym i te zdolności, które utraciliśmy, mówi Wiseman.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Pozycjonowanie to szereg działań, które na celu mają zwiększenie widoczności strony www lub sklepu e-commerce w organicznych wynikach wyszukiwania. W dzisiejszym, cyfrowym świecie, gdzie miliony stron konkurują o uwagę użytkowników, efektywne SEO jest niezbędne. W naszym artykule omówimy kluczowe czynniki wpływające na SEO, w tym kwestie dotyczące wydajności strony, na przykład metrykę Contentful Paint (FCP) i inne.
      Zapraszamy do zapoznania się z artykułem -agencja SEO/SEM 1stplace.pl.
      Pozycjonowanie stron i sklepów e-commerce
      Jak już wspominaliśmy powyżej, pozycjonowanie ma na celu poprawę widoczności strony w organicznych wynikach wyszukiwania. Wyższa pozycja w Google oznacza większą widoczność, więcej ruchu na stronie, a tym samym potencjalnie większe zyski.
      Pomimo że podstawy pozycjonowania mogą wydawać się proste, cały proces wymaga specjalistycznej wiedzy i ciągłego monitorowania zmieniających się algorytmów wyszukiwarek. Właśnie dlatego, wiele firm decyduje się na skorzystanie z usług agencji e-marketingowej.
      Agencje e-marketingowe, specjalizujące się w SEO, dysponują niezbędnym doświadczeniem i narzędziami do skutecznego pozycjonowania strony. Specjaliści opracują kompleksową strategię, obejmującą optymalizację on-site i off-site, przeprowadzają analizę słów kluczowych, przygotują treści. Skorzystanie z usług profesjonalnej agencji może przynieść wiele korzyści Twojej firmie.
      Pozycjonowanie - działania on-site i off-site
      Pozycjonowanie stron to proces, który obejmuje wiele różnych elementów i strategii. Zrozumienie, jak te elementy współgrają ze sobą, jest kluczowe dla uzyskania satysfakcjonujących efektów.
      W procesie SEO mówimy o działaniach on-site i off-site.
      On-page SEO
      Działania on-page dotyczą prac przeprowadzanych bezpośrednio na stronie www. Są to elementy, które możesz kontrolować i optymalizować.
      Zawartość: Google ceni unikalne, świeże i wartościowe treści, które są użyteczne dla użytkowników. Treści powinny być napisane w jasny i zrozumiały sposób, z użyciem odpowiednich słów kluczowych. Słowa kluczowe: Słowa kluczowe to ważny element pozycjonowania. Muszą być odpowiednio dobrane i używane w treści, metatagach i URLach. Dzięki temu zarówno roboty Google, jak i użytkownicy,  zrozumieją tematykę strony. Meta tagi: Meta tagi, takie jak meta tytuł i opis meta, pomagają wyszukiwarkom (i użytkownikom), zrozumieć, co znajduje się na stronie. Meta dane powinny być unikalne dla każdej podstrony i zawierać odpowiednie słowa kluczowe. URL: Struktura URL powinna być jasna, zawierać słowa kluczowe, które pomagają zrozumieć, co znajduje się na danej podstronie. Szybkość ładowania strony: Wolno ładujące się strony mogą zniechęcić użytkowników, co poskutkuje wyższym współczynnikiem odrzuceń. Dlatego ważne jest, aby strona ładowała się szybko. Optymalizacja pod kątem urządzeń mobilnych: Liczba użytkowników korzystających z internetu za pomocą telefonów i tabletów wciąż wzrasta. Właśnie dlatego, optymalizacja strony pod kątem urządzeń mobilnych jest niezbędna. Strona powinna być responsywna, czyli dostosowywać swój wygląd i funkcje do rozmiaru ekranu urządzenia, na którym jest wyświetlana. Linki wewnętrzne: Linki prowadzące do różnych podstron w obrębie Twojej witryny pomagają w nawigacji, zwiększają crawl budget. Off-page SEO
      Czynniki off-page odnoszą się do działań poza stroną. Jest to przede wszystkim linkowanie zewnętrzne. Backlinki, czyli linki z innych stron, prowadzące na Twoją witrynę, mogą znacznie poprawić pozycję strony. Google traktuje wartościowe odnośniki, jak głosy oddane na Twoją witrynę.
      Czynniki wydajności strony www
      Wydajność strony internetowej odnosi się do prędkości i płynności działania. Jest to kluczowa kwestia, wpływająca na wrażenia użytkowników, jak i na wyniki pozycjonowania.
      First Contentful Paint (FCP) znaczenie i optymalizacja
      First Contentful Paint (https://1stplace.pl/blog/first-contentful-paint-fcp-czym-jest-dlaczego-jest-wazny/) to metryka, która mierzy czas od rozpoczęcia ładowania strony do momentu, gdy pierwszy element (np. obrazek, tekst), jest renderowany na ekranie. Jest to kluczowy wskaźnik, stanowiący sygnał dla użytkownika, że strona się ładuje.
      Wysokie wartości FCP mogą sugerować, że użytkownik przez dłuższy czas widzi pusty ekran. Może to prowadzić do frustracji i potencjalnie zniechęcić odwiedzającego do dalszego korzystania ze strony. Optymalizacja FCP jest więc niezbędna dla dobrej wydajności strony.
      Inne czynniki wydajności strony www
      Oprócz FCP istnieją inne metryki wydajności, które są ważne dla doświadczenia użytkownika i mogą wpływać na pozycjonowanie strony. Poniżej omawiamy metryki Core Web Vitals.
      Largest Contentful Paint (LCP): Metryka mierzy czas ładowania największego elementu widocznego na stronie (grafiki, treści, video). Wysokie wartości LCP wskazują na problemy z wydajnością, które mogą wpływać na satysfakcję użytkownika. First Input Delay (FID): FID mierzy czas od momentu interakcji użytkownika ze stroną (np. kliknięcie przycisku), do momentu odpowiedzi na tę akcję. Wysoki FID może być frustrujący dla użytkowników, którzy oczekują natychmiastowej reakcji na swoje działania. Cumulative Layout Shift (CLS): CLS odnosi się do przesunięć elementów strony. Niezwiązane z intencją użytkownika przesunięcia elementów mogą być irytujące, prowadzić do przypadkowych kliknięć, a w konsekwencji do opuszczenia strony. Pamiętaj, że wszystkie te metryki są ściśle powiązane z doświadczeniem użytkownika. Im szybciej strona ładuje się i reaguje na interakcje, tym lepsze wrażenie robi na użytkownikach, co z kolei wpływa na SEO.
      Optymalizacja metryk wydajności
      Optymalizacja wymienionych metryk wydajności jest bardzo istotna. Pierwszym krokiem powinno być znalezienie i zrozumienie przyczyny problemów z wydajnością. Kolejny krok to podjęcie odpowiednich działań. Oto kilka strategii, które mogą pomóc:
      Optymalizacja obrazów: Duże, ciężkie obrazy mogą spowolnić ładowanie strony. Warto kompresować obrazy, używać formatów obrazów nowej generacji, takich jak WebP, zastosować technikę ładowania leniwego (lazy loading). Optymalizacja kodu: Usuwanie niepotrzebnego kodu, optymalizacja plików CSS i JavaScript oraz optymalizacja porządku ładowania zasobów mogą przyspieszyć ładowanie strony. Unikanie dużej ilości reklam: Zbyt wiele reklam na stronie może spowolnić jej ładowanie i wpływać na metryki, takie jak CLS. Optymalizacja serwera: Wysokiej jakości, zaufany serwer to kolejny krok do sprawnie działającej witryny. Narzędzia do pomiaru wydajności strony
      Istnieje wiele narzędzi, które pomagają mierzyć wydajność strony. Są to:
      Google PageSpeed Insights to narzędzie od Google, które analizuje wydajność strony i daje sugestie dotyczące optymalizacji. Lighthouse to otwarte narzędzie do testowania wydajności, dostępności i innych aspektów stron internetowych. WebPageTest to kolejne popularne narzędzie, które pozwala na szczegółową analizę wydajności strony. Podsumowanie
      Pozycjonowanie stron jest skomplikowanym procesem, który obejmuje wiele czynników. Działania on-page, off-page, wydajność strony, np. FCP, wszystko to ma wpływ na to, jak strona oceniana jest przez roboty i przez użytkowników.
      Pamiętaj, że SEO to proces ciągły. Wymaga regularnego monitorowania i optymalizacji, aby strona pozostała konkurencyjna. Korzystanie z narzędzi do mierzenia wydajności strony może pomóc w zrozumieniu, jak strona działa i jakie elementy wymagają poprawy.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W jaki sposób mózg decyduje, jak najlepiej poruszać naszym ciałem? Okazuje się, że dla układu nerwowego to spore wyzwanie, gdyż mamy setki mięśni, które muszą być koordynowane setki razy na sekundę, a liczba możliwych wzorców koordynacji, z których musi wybierać mózg, jest większa niż liczba ruchów na szachownicy, mówi profesor Max Donelan z kanadyjskiego Simon Fraser University. Donelan i jego zespół badali, w jaki sposób ciało adaptuje się d nowych ruchów. A ich badania mogą mieć znaczenie zarówno dla treningu sportowców, jak i rehabilitacji niepełnosprawnych.
      Naukowcy zauważają, że bardzo często doświadczamy zmian zarówno w naszym organizmie, jak i w środowisku zewnętrznym. Być może lubisz biegać w niedzielę rano, Twoje mięśnie będą tym bardziej zmęczone im dłuższy dystans przebiegniesz. A może w czasie wakacji biegasz po plaży, gdzie podłoże jest luźne i nierówne w porównaniu z chodnikiem, po którym codziennie chodzisz. Od dawna jesteśmy w stanie rejestrować zmiany w sposobie poruszania się, ale dotychczas chyba nie docenialiśmy, w jaki sposób nasz organizm do takich zmian się adaptuje, stwierdza Donelan.
      Chcąc przyjrzeć się tym zmianom kanadyjscy neurolodzy podjęli współpracę z inżynierami z Uniwersytetu Stanforda, którzy specjalizują się w tworzeniu egzoszkieletów.
      Badania kanadyjsko-amerykańskiego zespołu przyniosły bardzo interesujące wyniki. Okazało się, że system nerwowy, ucząc się wzorców koordynacji nowych ruchów, najpierw rozważa i sprawdza wiele różnych wzorców. Stwierdzono to, mierząc zmienność zarówno samego ruchu ciała jako takiego, jak i ruchów poszczególnych mięśni i stawów. W miarę, jak układ nerwowy adaptuje się do nowego ruchu, udoskonala go, a jednocześnie zmniejsza zmienność. Naukowcy zauważyli, że gdy już nasz organizm nauczy się nowego sposobu poruszania się, wydatek energetyczny na ten ruch spada aż o 25%.
      Z analiz wynika również, że organizm odnosi korzyści zarówno z analizy dużej liczby możliwych wzorców ruchu, jak i ze zmniejszania z czasem liczby analizowanych wzorców. Zawężanie poszukiwań do najbardziej efektywnych wzorców pozwala bowiem na zaoszczędzenie energii.
      Zrozumienie, w jaki sposób mózg szuka najlepszych sposobów poruszania ciałem jest niezwykle ważne zarówno dla ultramaratończyka, przygotowującego się do biegu w trudnym terenie, jak i dla pacjenta w trakcie rehabilitacji po uszkodzeniu rdzenia kręgowego czy wylewu. Na przykład trener, który będzie wiedział, w którym momencie organizm jego podopiecznego zaadaptował się do nowego programu treningowego, będzie wiedział, kiedy można wdrożyć kolejne nowe elementy. A twórcy egzoszkieletów pomagających w rehabilitacji dowiedzą się, w którym momencie można przed pacjentem postawić nowe zadania, bo dobrze opanował wcześniejsze.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Zoptymalizowanie ustawienia turbin na farmie wiatrowej może znakomicie zwiększyć ilość produkowanej energii, jednak korzyści takie zauważymy w farmach nie przekraczających określonej wielkości, wynika z badań przeprowadzonych przez naukowców z Carnegie Institution for Science.
      Nie od dzisiaj wiadomo, że wydajność turbin na farmach może być znacząco mniejsza niż pojedynczych turbin. Wydajność małych farm wiatrowych może wynosić ponad 10 W/m2, to przy wielkich instalacjach spada ona do 1 W/m2. Wynika to z faktu, że turbiny zmniejszają energię wiatru, który przez nie przechodzi. Ponadto wprowadzają też turbulencje, przez które kolejne turbiny w szeregu produkują mniej energii. To już wiadomo, jednak dotychczas nie badano, co kontroluje te zjawiska, mówi autor badań, Enrico Antonioni.On i Ken Caldeira wykorzystali modele dynamiki płynów do zbadania przepływu powietrza w okolicy turbin.
      Najpierw przyjrzeli się indywidualnym turbinom. Później zaś symulowali pracę małych farm. Stwierdzili, że zmniejszenie zagęszczenia turbin na małej farmie, zwiększa wydajność pojedynczej turbiny. Okazało się jednak, że niezwykle ważne jest rozkład przestrzenny turbin. Ustawienie ich w szeregu lub naprzemiennie w stronę wiatru zwiększa moc wyjściową nawet o 56% w porównaniu z ustawieniem ich w kolumnie. Przy optymalnym ustawieniu turbin można wyprodukować 10, 20, a nawet 30 procent energii więcej, gdyż można zredukować interakcje pomiędzy turbinami, wyjaśnia Antonini.
      Zyski z odpowiedniego rozmieszczenia turbin znikały jednak w miarę rozrastania się farm. Uczeni wykorzystali więc symulacje meteorologiczne dotyczące prędkości wiatru, by sprawdzić, dlaczego tak się dzieje. W niewielkich farmach przyczyną spadku wydajności turbin są turbulencje wywoływane przez turbiny sąsiednie. Temu zjawisku można zaradzić. Natomiast w dużych instalacjach prędkość wiatru jest obniżana przez zwiększony opór aerodynamiczny w całym regionie.
      Co więcej, okazało się, że zaburzenia powodowane przez wielkie farmy wiatrowe mogą rozciągać się na przestrzeni dziesiątków kilometrów, negatywnie wpływając na inne farmy.
      Generalnie rzecz biorąc, odpowiednie ustawienie turbin przestawało przynosić korzyści, gdy farma rozciągała się na ponad 30 kilometrów. Jednak, co interesujące, sporo zależało od... szerokości geograficznej. Farmy umieszczone dalej od równika mogły być większe zanim ich wydajność spadała. Było to związane z działaniem siły Coriolisa i jej wpływem na wiatr.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...