Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37086
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    231

Zawartość dodana przez KopalniaWiedzy.pl

  1. Morze Bałtyckie to niezwykle delikatny ekosystem, jedno z najbardziej zagrożonych mórz świata. Tymczasem armatorzy statków, zamiast zainwestować w czystsze technologie, inwestują w instalacje, dzięki którym zrzucają do wody odpady powstałe w procesie oczyszczania spalin. Naukowcy z Uniwersytetu Technologicznego Chalmersa obliczyli, że same tylko społeczno-ekonomiczne koszty takich działań wyniosły w latach 2014–2022 ponad 680 milionów euro. Prywatne firmy zaoszczędziły w ten sposób olbrzymie pieniądze, obciążając nas wszystkich kosztami swojej działalności i zanieczyszczając Bałtyk. Widzimy tutaj oczywisty konflikt interesów. Prywatne firmy odnoszą korzyści koszem jednego z najbardziej wrażliwych akwenów morskich na świecie, doktorantka Anna Lunde Hermansson. Wiele statków używa jako paliwa ciężkiego oleju napędowego. Jest on tani i bardzo zanieczyszcza powietrze. Jest na tyle szkodliwy, że od 2011 roku obowiązuje nałożony przez Międzynarodową Organizację Morską zakaz poruszania się statków z tym paliwem na wodach Antarktyki, a w bieżącym roku wchodzi zakaz dotyczący wód Arktyki. Ta sama organizacja wprowadziła w styczniu 2020 roku ściślejsze regulacje dotyczące emisji tlenków siarki i pyłów zawieszonych przez paliwa używane w żegludze. Większość światowej floty przestawiła się na bardziej czyste paliwa, jednak część armatorów zdecydowała się na zainstalowanie aparatów absorpcyjnych oczyszczających spaliny i nadal używają bardziej brudnych paliw. Badania emisji ze statków wykazały, że po wprowadzeniu regulacji światowa flota emituje mniej do atmosfery. Jednak naukowcy od dawna przestrzegają, że na oszczędności niektórych armatorów tracimy wszyscy. Aparaty absorpcyjne (skrubery), które zainstalowano na około 5000 statków, działają na zasadzie absorpcji gazu do cieczy. Ciecz wychwytuje związki, których chcemy się pozbyć i do atmosfery trafiają czystsze spaliny. Jednak statki pozbywają się zanieczyszczonej cieczy wypuszczając ją do wody. Dodatkowo zanieczyszczając m.in. Bałtyk. Taka zanieczyszczona woda zwiększa śmiertelność organizmów morskich, negatywnie wpływa na ich wzrost, prowadzi do zakwitów fitoplanktonu i zakwaszenia lokalnych wód. Naukowcy z Chalmers obliczyli też korzyści ekonomiczne, jakie z wykorzystywania skruberów odnieśli armatorzy 3800 używających je jednostek. Okazało się, że – w porównaniu z sytuacją, gdyby zainwestowali w napęd na czystsze paliwa – już do końca roku 2022 osiągnęli zysk w wysokości 4,7 miliarda euro. Biorąc pod uwagę fakt, że dzięki aparatom absorpcyjnym mogą nadal używać taniego, brudnego paliwa, instalacja najczęściej używanego systemu zwraca się w ciągu 5 lat. Jest to możliwe dzięki przerzucaniu kosztów na środowisko i nas wszystkich. Armatorzy twierdzą, że działają w dobrej wierze i inwestują w ekologiczne technologie zmniejszające emisję siarki do atmosfery, więc nie powinni być karani. Nasze badania wykazały, że większość inwestycji już im się zwróciła, więc ich argumentacja nie jest prawdziwa, dodaje Lunde Hermansson. Niektóre kraje, jak Dania, Niemcy, Francja, Turcja, Chiny czy Portugalia zabroniły lub ograniczyły możliwość wypuszczania wody ze skruberów na swoich wodach terytorialnych. Armatorzy mogą jednak bezkarnie zanieczyszczać wody innych krajów i wody międzynarodowe. Tymczasem Morze Bałtyckie, którego dotyczyły badania, zmaga się dodatkowo z wieloma innymi zagrożeniami. O niepokojących zmianach na Bałtyku, przeszłości i przyszłości tego morza przeczytacie w naszym wywiadzie z doktorem Tomaszem Kijewskim  z Instytutu Oceanologii Polskiej Akademii Nauk. « powrót do artykułu
  2. Graham Senior, nauczyciel geografii z Coventry, kopał w ogródku, gdy kilka centymetrów pod powierzchnią ziemi trafił na regularny kamień z widocznymi nacięciami. Zaintrygowany umył go, sfotografował, a zdjęcia wysłał znajomemu archeologowi. Ten stwierdził, że odkrycie jest na tyle interesujące, że warto zgłosić je do Portable Antiquities Scheme, gdzie rejestruje się przypadkowe znaleziska dokonane przez amatorów. Tamtejsza kurator przesłała zdjęcia profesor Katherinie Forsyth  z University of Glasgow, która potwierdziła, że nacięcia to wczesnośredniowieczne pismo ogham. Ogham to alfabetyczne pismo powstałe w IV wieku. Było to pierwsze pismo używane na terenie dzisiejszej Szkocji oraz Irlandii. Zapisywano nim język piktyjski oraz protogoidelski, od którego wywodzi się język staroirlandzki. Ogham składa się z poziomych linii ułożonych w grupy od 1 do 5 nacięć. Był stosowany zanim w Irlandii – zwanej Hibernią, a następnie Szkocją – przyjął się alfabet łaciński Obecnie znamy ponad 400 kamieni z ogham. Nie wiadomo, czemu one służyły. Niektórzy historycy sądzą, że były używane do rozwiązywania sporów prawnych dotyczących własności ziemi, gdyż często znajdowane są w pobliżach granic posiadłości i zapisano na nich imiona przodków. Napis na kamieniu znalezionym przez Seniora wykonany został we wczesnym stylu, prawdopodobnie pochodzi z V lub VI wieku, ale nie można wykluczyć, że powstał już w wieku IV. Widoczny na nim napis głosi MALDUMCAIL / S / LASS. Cześć pierwsza inskrypcji to nazwisko Mael Dumcail. Znacznie drugiej części nie jest pewne. Jak i to, dlaczego i po co znalazł się na terenie dzisiejszego Coventry w centrum Anglii. « powrót do artykułu
  3. Naturalni wrogowie – patogeny, roślinożerne bezkręgowce i ssaki roślinożerne – odgrywają duża rolę w kontrolowaniu populacji i dynamiki roślinności, wpływając na jej różnorodność. Brazylijscy naukowcy postanowili zająć się bardzo słabo poznanym obszarem wzajemnych zależności ze świata przyrody, a mianowicie wpływem lokalnego wytępienia dużych roślinożerców na dynamikę interakcji pomiędzy patogenami a roślinami. Ich badania przyniosły niespodziewane wnioski. Uczeni ogrodzili pewne fragmenty lasu deszczowego w Brazylii tak, by nie mogły się do nich dostać pekari, tapiry, mazamy i inni duzi roślinożercy. Następnie przez 15 lat porównywali uszkodzenia liści poczynione przez owady oraz patogeny na obszarach chronionych i niechronionych przed tymi zwierzętami. Odkryli w ten sposób nieznaną dotychczas rolę, jaką duzi roślinożercy odgrywają w interakcjach między patogenami a roślinami. Tam, gdzie roślinożercy nie byli dopuszczeni, odsetek uszkodzonych liści zmniejszył się o 9%. Było to spowodowane mniejszą aż o 29% ilością patogenów występujących na obszarach chronionych przed dużymi ssakami. Trzeba bowiem pamiętać, że roślinożerne ssaki przemieszczają się na duże odległości, roznosząc przy okazji roślinne patogeny. Odsetek liści uszkadzanych przez owady nie uległ zmianie. Na obszarach chronionych zwiększyła się też różnorodność roślinności. To sugeruje, że odsetek uszkadzanych liści spadł, gdyż z powodu braku dużych roślinożerców pojawiła się większa liczba roślin. Doszło do zmniejszenia koncentracji patogenów w masie roślin. Jednak tylko pozornie jest to korzystne zjawisko. Rośliny i ich patogeny to naturalni wrogowie. Prowadzą ze sobą wyścig zbrojeń. Obecność patogenów powoduje, że rośliny ewoluują różnego typu sposoby ochrony, zarówno fizyczne jak i chemiczne. Patogeny i inni wrogowie tworzą nowe metody ataku, rośliny tworzą nowe metody obrony. To jeden z kluczowych elementów ewolucji i utrzymywania bioróżnorodności, prowadzi do pojawienia się nowych gatunków roślin i nowych organizmów, które wchodzą z nimi w interakcje. W długim terminie osłabienie interakcji pomiędzy patogenami a roślinami – spowodowane zniknięciem dużych roślinożerców – może doprowadzić do tak znacznego osłabienia konkurencji pomiędzy niektórymi roślinami i patogenami, że przestanie od wpływać na ich ewolucję, co może prowadzić do zmniejszenia bioróżnorodności. Wniosek taki jest tym bardziej uprawomocniony, że przed rokiem niemieccy badacze wykazali, iż olbrzymia bioróżnorodność roślinożernych owadów to wynik ich konkurencji o te same źródła pożywienia. Konkurencji, która wymuszała ciągłą ewolucję. « powrót do artykułu
  4. Grupa naukowców z NASA prognozuje, że Teleskop Kosmiczny Nancy Grace Roman, który ma zostać wystrzelony w 2027 roku i umieszczony w punkcie libracyjnym L2, może odnaleźć czarne dziury o niezwykle niskiej masie, w tym o masie Ziemi. Odkrycie takich czarnych dziur byłoby niezwykle ważnym krokiem w rozwoju astronomii i fizyki cząstek, gdyż tego typu obiekty nie mogą powstać w ramach żadnego znanego nam procesu fizycznego, mówi William DeRocco, główny autor nowych badań. Jeśli je znajdziemy, wstrząśniemy fizyką teoretyczną, dodaje. Najmniejsze ze znanych nam obecnie czarnych dziur powstają w wyniku zapadnięcia się gwiazd, które zużyły całe swoje paliwo. Istnieje jednak granica masy. Gwiazda, z której powstaje czarna dziura, musi mieć masę co najmniej 8-krotnie większą, od masy Słońca. Z lżejszych gwiazd powstają białe karły lub gwiazdy neutronowe. Jednak fizycy przypuszczają, że na początku istnienia wszechświata mogły istnieć warunki pozwalające na tworzenie się bardzo lekkich czarnych dziur. Średnica horyzontu zdarzeń czarnej dziury o masie Ziemi wynosiłaby mniej niż 2 centymetry. Na początku wszechświata bowiem, podczas krótkiej fazy zwanej inflacją kosmologiczną, wszechświat rozszerzał się szybciej niż prędkość światła. Obszary, które były gęstsze niż otoczenie, mogły się zapadać, tworząc pierwotne czarne dziury o niskiej masie. Najmniejsze z nich powinny wyparować, zanim wszechświat osiągnął obecny wiek. Jednak te o masie podobnej do masy Ziemi powinny przetrwać do naszych czasów. Ich odkrycie miałoby olbrzymie znaczenie. ƒWpłynęłoby na nasze rozumienie wielu rzeczy, od tworzenia się galaktyk, przez skład ciemnej materii, po historię kosmosu. Znalezienie ich i potwierdzenie, że to właśnie one będzie trudne, a astronomowie będą musieli zebrać dużo przekonujących dowodów. Ale gra warta jest świeczki, mówi Kailash Sahu ze Space Telescope Science Institute, który nie był zaangażowany w omawiane badania. Już obecnie wyniki niektórych obserwacji wskazują, że tego typu czarne dziury mogą podróżować po wszechświecie. Oczywiście nie możemy ich bezpośrednio zobaczyć, ale jesteśmy w stanie obserwować wywoływane przez nie zniekształcenia czasoprzestrzeni. Objawiają się one w postaci mikrosoczewkowania gwiazd w tle. Takie przypadki mikrosoczewkowania zaobserwowano w danych z projektów MOA (Microlensing Observations in Astrophysics) oraz OGLE (Optical Gravitational Lensing Experiment). Wynika z nich, że w przestrzeni kosmicznej znajduje się zaskakująco dużo izolowanych obiektów o masie Ziemi. Oczywiście teorie formowania się planet dopuszczają istnienie samotnych planet, które nie są powiązane z żadną gwiazdą i swobodnie się przemieszczają. Jednak z danych MOA i OGLE wynika, że liczba takich obiektów jest większa, niż szacowana liczba planet swobodnych. Na podstawie izolowanych obserwacji nie jesteśmy w stanie stwierdzić, czy do mikrosoczewkowania doszło z powodu samotnej planety czy czarnej dziury o masie Ziemi. Jednak naukowcy uważają, że Teleskop Roman zarejestruje aż 10-krotnie więcej tego typu obiektów niż teleskopy naziemne i na podstawie obliczeń statystycznych będziemy mogli obliczyć, czy udało się zauważyć niezwykle lekkie czarne dziury. Jeśli astronomowie rzeczywiście je znajdą, potwierdzą istnienie okresu inflacji kosmologicznej czy też będą w stanie wyjaśnić, dlaczego zauważyliśmy dotychczas tak niewiele ciemnej materii, mimo że stanowi ona niemal 27% masy wszechświata. « powrót do artykułu
  5. W latach 2010–2020 na północnym-wschodzie Pacyfiku notowano rekordowe wysokie temperatury powierzchni wody. Pojawiły się liczne długotrwałe fale ekstremalnych upałów. Częściowo mogło się do tego przyczynić naturalna coroczna zmienność klimatu, jednak naukowców zastanawiało, dlaczego zjawiska takie były bardziej intensywne i dochodziło do nich częściej niż wcześniej. Grupa uczonych z Chin, USA i Niemiec rozwiązała zagadkę, a swoje wnioski opisała na łamach PNAS. Upały na Pacyfiku doprowadziły między innymi do masowego wymierania ryb i zakwitów glonów. Generalnie rzecz biorąc, coraz bardziej intensywne i coraz częściej zdarzające się fale upałów wiązane są z globalnym ociepleniem, trudno jest jednak powiązać konkretne fale z konkretnymi działaniami czy mechanizmami. Autorzy najnowszych badań wykorzystali – między innymi – różne modele klimatyczne oraz inne dane i powiązali to, co działo się na Pacyfiku z... polityką rządu w Pekinie. Ich zdaniem, upały w północno-wschodniej części największego oceanu były spowodowane udaną redukcją zanieczyszczenia aerozolami w Chinach. Od mniej więcej roku 2010 w Państwie Środka przemysł zaczął wdrażać bardziej restrykcyjne zasady dotyczące emisji zanieczyszczeń. Badacze wiedzieli, że aerozole odbijają promieniowanie słoneczne w przestrzeń kosmiczną, zapobiegając ogrzewaniu przez nie powierzchni planety. Ponadto wcześniejsze badania w innych miejscach świata wskazywały na istnienie związku pomiędzy redukcją zanieczyszczeń, a ociepleniem. Tak było na przykład w przypadku wschodnich i centralnych obszarów USA, które przez kilka dziesięcioleci XX wieku były „dziurą ociepleniową”, a gdy poziom zanieczyszczeń zredukowano, zaczęły się szybko ogrzewać. Autorzy nowych badań chcieli sprawdzić, czy tak jest i w interesującym ich przypadku. Zebrali dane i wprowadzili je do 12 różnych modeli klimatycznych. Każdy z modeli miał do przeanalizowania dwie sytuacje. Pierwsza, gdy emisje zanieczyszczeń ze wschodnich części Azji pozostają na tym samym poziomie, na jakim były przez ostatnie dekady, a druga – gdy ma miejsce spadek zanieczyszczeń taki, do jakiego doszło w wyniku redukcji chińskiej emisji. Okazało się, że tylko w przypadku redukcji emisji modele przewidywały pojawienie się fal upałów w północno-wschodnich częściach Pacyfiku. Modele pozwoliły też na opisanie mechanizmu. Gdy mniej ciepła było odbijane w przestrzeń kosmiczną nad Chinami, dochodziło do ogrzewania wybrzeży Państwa Środka, co prowadziło do rozwoju układów wysokiego ciśnienia. W wyniku tego zaś systemy układy niskiego ciśnienia w środkowym Pacyfiku są bardziej intensywne. A to zaś powoduje, że niż baryczny nad Aleutami rozszerza swój zasięg i przesuwa się na południe, co osłabia wiatry zachodnie ochładzające powierzchnię morza. To z kolei prowadzi do bardziej intensywnego ocieplania się badanego obszaru. « powrót do artykułu
  6. Naukowcy z Zakładu Astrofizyki Narodowego Centrum Badań Jądrowych badali fotoparowanie pyłu międzygwiazdowego i znaczenie tego zjawiska dla ewolucji galaktyk. Pył, ważny element ośrodka międzygwiazdowego, wpływa na powstawanie nowych molekuł, ochładzanie gazu – co z kolei wpływa na tworzenie gwiazd – rozkład energii w galaktykach, pozwala nam też na szacowanie właściwości fizycznych galaktyk, jak tempo formowania się gwiazd czy ich łączna masa. Ilość pyłu w galaktykach nie jest jednak stała. Zmienia się ona pod wpływem wybuchów supernowych, galaktycznych odpływów czy wskutek fotoparowania. Tam, gdzie intensywnie formują się gwiazdy oraz w pobliżu mgławic planetarnych, powstaje dużo promieniowania o wysokich energiach. Promieniowanie to jest pochłaniane przez pył, którego cząsteczki ulegają podgrzaniu. A jeśli zostaną podgrzane do odpowiednio wysokiej temperatury, wyparują. Zjawisko to – fotoparowanie – wpływa na ilość dostępnego pyłu, co może mieć znaczenie w galaktykach o niskiej metaliczności [metalami w rozumieniu astronomicznym są pierwiastki cięższe od helu – red.] oraz na wczesnych etapach życia wszechświata, gdy powstawały większe i bardziej gorące gwiazdy niż teraz. Skupiliśmy się na tym, czy poza falami uderzeniowymi z supernowych, odpływami galaktycznymi i procesem astracji, również fotoparowanie może efektywnie wpływać na zanikanie pyłu w ośrodku międzygwiazdowym, mówi główny autor publikacji, doktor Ambra Nanni z NCBJ. Naukowcy przeanalizowali ewolucję gazu i pyłu zarówno w krótkich (poniżej 100 milionów lat) i długich (liczonych w miliardach lat) skalach czasu. Stwierdzili, że fotoparowanie odpowiada jedynie za od 10-8 do 10-6 niszczenia pyłu na każdą masę Słońca w powstających gwiazdach. Nie jest więc to zjawisko, które miałoby duży wpływ na dostępność pyłu w galaktykach. « powrót do artykułu
  7. W świecie zwierząt, gdy samica posiadająca młode traci partnera i akceptuje nowego, często oznacza to wyrok śmierci dla potomstwa. Nowy partner, robią tak na przykład lwy czy goryle, zabija dzieci poprzednika, by mieć pewność, że młode o które będzie się troszczył, są jego. Okazuje się, że rację miał Sievert Rohner, kurator kolekcji ptaków w Burke Museum, gdy w 1986 roku przewidywał, że niektóre ptaki mogą adoptować młode poprzednika. Robi tak przynajmniej jeden gatunek, a sukces reprodukcyjny samca, który adoptuje, jest taki sam, co samca decydującego się na zabicie potomstwa poprzednika. Rok po tym, jak Rohner wysunął swoją hipotezę, Steve Beissinger, ekolog na Uniwersytecie Kalifornijskim w Berkeley, rozpoczął instalowanie na jednej z farm w Wenezueli budek lęgowych dla niewielkiej papugi, wróbliczki zielonorzytnej. Następnie kilka dekad prowadził obserwacje tego gatunku. Dowiedział się, że w populacji występuje niemal 2-krotnie więcej samców niż samic, a zwierzęta tworzą pary na całe życie. Gdy jedno z pary wcześniej umiera (częściej dzieje się tak w przypadku samców), w ciągu godziny wokół gniazda samotnej samicy gromadzą się konkurujące o nią samce. I, jak się okazuje, nie zawsze zabijają młode poprzednika. Beissinger i jego zespół monitorowali 2742 budki lęgowe. Udało się im zaobserwować 346 budek, w których miało miejsce zabójstwo młodych lub adopcja. W 256 z nich doszło do zabicia młodych i zniszczenia jajek. W aż 69% przypadków (177) sprawcami takich wydarzeń były obce pary, które przepędziły parę gniazdującą, zajmując budkę. W pozostałych 31% (79) sprawcą był jeden z przybranych rodziców, zwykle samiec. Okazało się jednak, że wróbliczki nie zawsze zabijają potomstwo poprzednika czy poprzedniczki. W ponad połowie przypadków – pozostałych 90 z 346 zaobserwowanych – samiec zaakceptowany przez owdowiałą samicę, nie zabił młodych. Czasami działo się tak, gdyż samica nie wpuściła nowego samca do gniazda. Jednak w innych przypadkach samiec miał dostęp do gniazda i zaczynał opiekować się młodymi poprzednika. A szczegółowe analizy pokazały, że samce adoptujące miały w sumie tyle samo własnego potomstwa, co samce zabijające. To zaś podważa dotychczasowe przekonanie, że adopcja potomstwa poprzednika niekorzystnie wpływa na sukces reprodukcyjny samca. Niewykluczone, że adopcja potomstwa wpływa na zacieśnienie więzi między owdowiałą samicą a ojczymem jej młodych, dzięki czemu samiec ma wcześniej – zwykle pisklęta były adoptowane przez młodsze samce – i częściej okazję do rozmnażania się. « powrót do artykułu
  8. WASP-43b została odkryta w 2011 roku. Należy ona do „gorących Jowiszów”, gazowych egzoplanet wielkości podobnej do Jowisza, na których panują temperatury znacznie wyższe, niż na jakiejkolwiek planecie Układu Słonecznego. Mimo, że gwiazda, którą okrąża WASP-43b jest mniejsza i chłodniejsza od Słońca, to sama planeta znajduje się w odległości 25-krotnie mniejszej niż odległość między Merkurym a Słońcem. Teraz, dzięki Teleskopowi Webba, astronomom udało się opisać pogodę panującą na planecie. Z powodu swojej ciasnej orbity planeta znajduje się w obrocie synchronicznym w stosunku do gwiazdy. Z powodu oddziaływania sił pływowych WASP-43b jest zwrócona ciągle tą samą stroną w stronę gwiazdy. Na jednej jej połowie panuje więc wieczny dzień, na drugiej – wieczna noc. Strona nocna nigdy nie jest oświetlana przez gwiazdę, jednak silne wschodnie wiatry transportują ciepło ze strony dziennej. WASP-43b jest od lat obserwowana przez teleskopy, w tym Hubble'a i – odesłanego już na emeryturę – Spitzera. Dzięki Hubble'owi dowiedzieliśmy się, że po stronie dziennej jest para wodna. Dane z Hubble'a i Spitzera wskazywały też, że po stronie nocnej mogą być chmury. Potrzebowaliśmy jednak dokładniejszych danych z Webba, żeby stworzyć mapę temperatur, pokrywy chmur, wiatrów oraz bardziej dokładnego składu atmosfery w skali całej planety, wyjaśnia Taylor Bell z Bay Area Environmental Research Institute, główny autor najnowszych badań. Co prawda planety nie można bezpośrednio zaobserwować, gdyż jest zbyt mała, ciemna i znajduje się zbyt blisko gwiazdy, ale dzięki jej bardzo krótkiemu okresowi orbitalnemu, który wynosi zaledwie 19,5 godziny, idealnie nadaje się do badań spektroskopowych. Naukowcy wykorzystali więc pracujący na Webbie MIRI (Mid-Infrared Instrument) do wykonywanych co 10 sekund przez 24 godziny pomiarów światła z planety. To pozwoliło obliczyć temperaturę i z grubsza zrekonstruować mapę jej rozkładu na całej planecie. Z badań wynika, że średnia temperatura po stronie dziennej wynosi 1250 stopni Celsjusza, po stronie nocnej zaś – 600 stopni. Najgorętsze miejsce planety znajduje się nieco na wschód od miejsca, które otrzymuje najwięcej promieniowania z gwiazdy. To przesunięcie spowodowane jest przez silne, naddźwiękowe wiatry, które przemieszczają gorące powietrze na wschód. Badacze wykorzystali trójwymiarowe modele atmosfery, podobne do modeli używanych na Ziemi do badań pogody i klimatu. Na ich podstawie stwierdzili, że nocna strona jest prawdopodobnie pokryta gęstymi chmurami, które częściowo zapobiegają ucieczce ciepła. Z powodu tych chmur strona ta wygląda na ciemniejszą i chłodniejszą, niż gdyby chmur nie było. Webb dostarczył też danych, które pozwoliły stwierdzić, że zarówno po stronie dziennej, jak i nocnej, znajduje się para wodna. Ku swojemu zaskoczeniu, naukowcy stwierdzili brak metanu w atmosferze. O ile jego nieobecność jest zrozumiała po stronie dziennej – jest tam zbyt gorąco, by metan się tworzył, a większość węgla prawdopodobnie występuje w postaci tlenku węgla – to Webb powinien wykryć sygnaturę metanu po chłodniejszej stronie nocnej. Jednak to tam nie ma. Przyczyną, dla której nie wykrywamy metanu na WASP-43b muszą być silne wiatry, osiągające prędkość 8000 km/h. Jeśli wiatry przenoszą gazy pomiędzy stroną dzienną a nocną z wystarczająco duża prędkością, to gazy te przebywają po stronie nocnej zbyt krótko, by zaszły tam reakcje chemiczne pozwalające na powstanie wykrywalnej ilości metanu, dodaje współautorka badań, Joanna Barstow z brytyjskiego Open University. Naukowcy przypuszczają, że z powodu tak szybko wiejących wiatrów atmosfera jest dobrze wymieszana i ma identyczny skład na całej planecie. « powrót do artykułu
  9. Tegoroczna edycja konkursu Fizyczne Ścieżki została rozstrzygnięta. Finał Konkursu odbył się 19 kwietnia br. w kompleksie jądrowym Świerk. Jury Konkursu, składające się z naukowców reprezentujących uczelnie wyższe oraz pracowników instytutów badawczych w Polsce zgodnie uznało, że prace były niezwykle ciekawe i wykonane na bardzo wysokim poziomie. Wśród wyróżnionych prac znalazły się m.in. komora mgłowa przeznaczona do obserwowania promieniowania jonizującego, pojazd „Blackbird”, który może poruszać się szybciej niż wiatr, badania plam na Słońcu, a także rozważania, czy robot może zastąpić fizyka. Laureaci konkursu zostali nagrodzeni stypendium Marszałka Województwa Mazowieckiego, a dwoje a nich otrzymało możliwość odbycia tygodniowego pobytu naukowego w Narodowym Centrum Badań Jądrowych i Instytucie Fizyki PAN. Dodatkowo, laureaci otrzymali znaczne ułatwienia w procesie ubiegania się o studia na kierunkach fizycznych na renomowanych uczelniach, takich jak Uniwersytet Jagielloński, Uniwersytet Warszawski, Uniwersytet w Białymstoku, Politechnika Świętokrzyska oraz Politechnika Warszawska. W uznaniu wysiłku włożonego w przygotowania do Konkursu, wszyscy uczestnicy prezentacji z dnia 19 kwietnia, wraz z ich opiekunami naukowymi, otrzymali książki ufundowane przez Prezydenta Miasta Otwocka, Starostę Otwockiego oraz Narodowe Centrum Badań Jądrowych. Dodatkowo, zostali oni uhonorowani nagrodami rzeczowymi, które zostały zakupione dzięki wsparciu z projektu realizowanego w ramach programu Społeczna Odpowiedzialność Nauki II - "Organizacja XIX i XX edycji ogólnopolskiego konkursu fizycznego Fizyczne Ścieżki". Podczas gali finałowej wręczono także Nagrodę im. Ludwika Dobrzyńskiego. Jest to forma upamiętnienia wspaniałego naukowca i popularyzatora nauki, który przez wiele lat był Przewodniczącym Komitetu Organizacyjnego Konkursu Fizyczne Ścieżki. Wyróżnienie to przyznaje się nauczycielom bądź opiekunom naukowym prac konkursowych, którzy z wyjątkowym zaangażowaniem wspierają rozwój naukowy swoich podopiecznych uczestniczących w Konkursie W tym roku uhonorowano mgr Janinę Kulę. Uczestnicy konkursu mogli także wysłuchać wykładu dr Pawła Gory na temat „Sztuczna inteligencja – rewolucja naszych czasów”. Organizatorzy, Narodowe Centrum Badań Jądrowych i Instytut Fizyki Polskiej Akademii Nauk, już dziś zapraszają wszystkich uczniów zainteresowanych fizyką do udziału w przyszłorocznej, jubileuszowej, dwudziestej edycji Fizycznych Ścieżek. Więcej informacji na stronie fizycznesciezki.pl. Konkurs Fizyczne Ścieżki jest co roku organizowany przez Narodowe Centrum Badań Jądrowych i Instytut Fizyki PAN dla uczniów klas 7–8 szkół podstawowych oraz dla uczniów szkół ponadpodstawowych. Honorowym patronatem wydarzenie objęli Ministrowie Nauki i Edukacji oraz Prezydent Otwocka. Nazwa rywalizacji nawiązuje do trzech ścieżek, którymi podąża współczesna fizyka – rozważań teoretycznych, eksploracji doświadczalnej oraz konstrukcji technicznej. W takich też konkurencjach uczestnicy mogą zgłaszać prace w postaci eseju, pracy naukowej lub pokazu zjawiska fizycznego. Do finału awansowało w tym roku po pięć najlepszych prac z każdej z dziedzin, a ich autorzy mieli okazję zaprezentować je przed jurorami, czyli znamienitymi polskimi fizykami, nauczycielami przedmiotów przyrodniczych i popularyzatorami nauki. Otwarte seminarium jest niezwykłym przeżyciem dla uczniów, ale także inspirującym doświadczeniem dla naukowców. « powrót do artykułu
  10. W 2. połowie XIX wieku francuscy archeolodzy natrafili w jednej z asyryjskich świątyń sprzed 2700 lat na grupę tajemniczych symboli. Z czasem okazało się, że taka sama sekwencja symboli powtarzała się w innych świątyniach Dur-Szarrukīn, stolicy Asyrii w czasach Sargona II. Obecnie jest to niewielka miejscowość Chorsabad w pobliżu Mosulu. Sekwencja symboli – lew, orzeł, byk, figowiec, pług – stała się przyczyną trwających od ponad 100 lat sporów interpretacyjnych. Asyriolog doktor Martin Worthington z Trinity College Dublin zaproponował interesujące rozwiązanie zagadki. Uczony, na łamach Bulletin of the American Schools of Oriental Research argumentuje, że wyrazy odpowiadające symbolom zawierają litery układające się w imię Sargon. Co więcej, w niekórych miejscach występują tylko trzy takie symbole – lew, figowiec, pług – z których litery również tworzą imię władcy. To jednak nie wszystko. Zdaniem Worthingtona, każdy z symboli odpowiada gwiazdozbiorowi. Zarówno tym nam znanym – Lew, Orzeł i Byk – oraz wyróżnianemu w Babilonie Pługowi. Pozostaje kwestia nieistniejącej na terenie Mezopotamii konstelacji związanej z drzewem. Badacz rozwiązuje ten problem, zauważając, że asyryjskie słowo „drzewo” brzmiało niemal identycznie jak słowo „szczęka”, a taka konstelacja, często uważana za należącą do Byka, istniała. Taką niebiańską interpretacją podpiera Worthington kolorystyką symboli. Nie zostały one bowiem przedstawione w naturalnych kolorach. Są złote/żółte na niebieskim tle. Nie mogę udowodnić swojej interpretacji, ale fakt, że sprawdza się ona zarówno w układzie 5 symboli, jak i 3 symboli, oraz że można je odnieść do gwiazdozbiorów, bardzo mnie przekonuje. Prawdopodobieństwo, że to przypadek, jest niewielkie, stwierdza uczony. Sargon II rządził imperium nowoasyryjskim w latach 722–705 p.n.e. Był pierwszym od ponad tysiąca lat władcą, które przybrał takie samo imię jak twórca imperium akadyjskiego, Sargon Wielki. « powrót do artykułu
  11. Badacze ze Szwajcarii, Wielkiej Brytanii i USA udowodnili, że wiewiórki na Wyspach Brytyjskich już w średniowieczu były nosicielami wywołującymi trąd bakterii Mycobacterium leprae oraz odkryli związek pomiędzy patogenem u wiewiórek, a lokalną ludzką populacją. Trąd, który w Europie uważamy za chorobę przeszłości, wciąż atakuje każdego roku około 200 000 osób na świecie. Przed kilku laty informowaliśmy, że wiewiórki z Wysp są nosicielkami bakterii wywołujących trąd u ludzi, a wkrótce potem opisywaliśmy badania, które wskazywały na możliwość zawleczenia tam trądu ze Skandynawii wraz z futrami i mięsem wiewiórek. Teraz mamy kolejne dowody na związek pomiędzy wiewiórkami, a trądem u ludzi. Międzynarodowa grupa naukowa, na której czele stała paleogenetyk profesor Verena Schünemann z Uniwersytetu w Bazylei dowiodła, że wiewiórka pospolita (Sciurus vulgaris) nie tylko była nosicielem M. leprae w średniowiecznej Anglii, ale również patogeny z ciał wiewiórek były blisko spokrewnione z patogenami z ciał ludzi żyjących na tym samym terenie. To pokazuje, że prawdopodobnie dochodziło do transmisji bakterii trądu pomiędzy ludźmi a zwierzętami. Nie wiemy, czy to wiewiórki zaraziły ludzi, czy ludzie wiewiórki, wyjaśnia uczona. Niewątpliwie pomiędzy ludźmi a zwierzętami dochodziło do kontaktów, które ułatwiały dzielenie się patogenami. Wyższe warstwy społeczne ubierały się w ubrania wykonane z futer wiewiórek. Na przykład w XI i XII wieku na potrzeby różnych rodów królewskich wykonywano całe płaszcze z wiewiórczych skór. Ponadto wiewiórki były trzymane jako zwierzęta domowe, zarówno na dworach królewskich, jak i w klasztorach. Podczas badań genetycznych uczeni skupili się na mieście Winchester na południu Anglii. Materiał do badań pobrano z dwóch różnych miejsc na terenie miasta. Ludzie szczątki pochodziły z cmentarza byłego leprozorium miejskiego, a szczątki wiewiórek znaleziono w byłym domu kuśnierza. Tego typu badania nie tylko zwiększają naszą wiedzę o przeszłości, ale mogą przydać się też obecnie. Wciąż bowiem nie wiemy dokładnie, jak trąd się rozprzestrzenia, a zwierzęta, jako potencjalne źródła zakażeń człowieka są słabo przebadane. Chociaż obecnie do zoonoz przywiązuje się coraz większa wagę, historyczne zoonozy są słabo poznane [...], a szczególnie dotyczy to ewolucji i obecności patogenów u zwierzęcych gospodarzy [...]. Bez pełnej sekwencji genetycznej patogenów odzwierzęcych ze stanowisk archeologicznych, nasze zrozumienie długoterminowej dynamiki chorób, interakcji pomiędzy zwierzęciem, człowiekiem, patogenem a środowiskiem nie jest dla nas jasne. A wiedza taka jest bardzo istotna, byśmy mogli dobrze zrozumieć to, co dzieje się obecnie i mogli lepiej identyfikować potencjalne miejsca zarażeń oraz związane z tym ryzyka, podsumowują autorzy badań na łamach artykułu opublikowanego w Current Biology. « powrót do artykułu
  12. Zwierzęta wykorzystują rośliny lecznicze, zarówno zapobiegawczo, jak i by pomóc sobie w różnego typu schorzeniach. Ptaki, pszczoły, jaszczurki, słonie czy szympansy zjadają rośliny, dzięki którym czują się lepiej, zapobiegają chorobom czy zabijają pasożyty. Najczęściej obserwowanym tego typu zachowaniem jest jedzenie trawy przez psy, które chcą sprowokować wymioty i ulżyć sobie w problemach z przewodem pokarmowym. Naukowcy z Niemiec i Indonezji donieśli właśnie o orangutanie, który leczył ranę własnoręcznie wykonaną pastą roślinną. Obecnie nauka dzieli medyczne zachowania zwierząt na pięć kategorii: 1. unikanie jedzenia, 2. unikanie odchodów, zanieczyszczonego pożywienia lub wody, 3. zachowania profilaktyczne, jak rutynowe spożywanie pożywienia o działaniu prozdrowotnym lub zapobiegającym, 4. zachowania lecznice, jak spożywanie niewielkich ilości substancji biologicznie aktywnych lub toksycznych w celu leczenia chorób i ich objawów, 5. terapeutyczne nakładanie roślin na futro i używanie ich w gnieździe w celu pozbycia się czy odstraszenia pasożytów oraz owadów. Uczeni zaobserwowali Rakusa, samca orangutana sumatrzańskiego (Pongo abelii), który miał na twarzy otwartą ranę. Prawdopodobnie powstała ona podczas walki z innym samcem. Trzy dni po zranieniu zwierzę zaczęło zrywać wybrane liście rośliny z gatunku Fibraurea tinctoria z rodziny miesięcznikowatych i je żuło, a uzyskany w ten sposób sok wielokrotnie nakładało na ranę. Na koniec dokładnie pokryło ranę pastą z przeżutych liści. Ranę u Rakusa zauważono 22 czerwca ubiegłego roku, od 25 czerwca orangutan zaczął ją leczyć. Podczas obserwacji w kolejnych dniach naukowcy nie zauważyli, by doszło do infekcji, a do 30 czerwca rana była zasklepiona, a do 19 lipca pozostała po niej jedynie niewielka blizna. W tym czasie Rakus mniej więcej dwukrotnie wydłużył czas odpoczynku w ciągu doby. Najwięcej odpoczywał zaraz po zranieniu oraz przez kilka dni po rozpoczęciu leczenia. Fibraurea tinctoria i spokrewnione w nią rośliny występujące w lasach tropikalnych Azji Południowo-Wschodniej są znane z właściwości przeciwbólowych, przeciwgorączkowych i moczopędnych. W tradycyjnej medycynie wykorzystywane są do leczenia wielu chorób, w tym cukrzycy, malarii czy czerwonki. Analizy chemiczne wykazały, że w roślinach tych znajdują się alkaloidy o działaniu przeciwbakteryjnym, przeciwzapalnym, przeciwgrzybiczym i przeciwutleniającym oraz wiele innych środków wspomagających leczenie ran. Przypadek Rakusa to prawdopodobnie pierwsza tak systematyczna dokładna obserwacja zwierzęcia aktywnie leczącego ranę. Nie mamy wystarczającej wiedzy, by stwierdzić, od jak dawna zwierzęta potrafią leczyć rany. « powrót do artykułu
  13. Zespół meksykańskich badaczy z Consejo Nacional de Humanidades, Ciencias y Tecnologías-El Colegio de la Frontera Sur poinformował, że podmorski lej krasowy Taam Ja', który odkryto z 2021 roku, to najgłębsza tego typu struktura na świecie. Podmorskie studnie znajdowane są na całym świecie, a najsłynniejsza z nich to Great Blue Hole w pobliżu Belize. Lej znajdujący się u południowych wybrzeży Jukatanu odebrał palmę pierwszeństwa Dragon Hole z Morza Południowochińskiego. Gdy Taam Ja' Blue Hole został odkryty, dokonano pomiarów jego głębokości za pomocą sonaru, który wskazał, że ma on około 275 metrów głębokości. Meksykańscy naukowcy rozpoczęli w grudniu bardziej szczegółowe badania studni, wykorzystując w tym celu sondę CTD, narzędzie używane do pomiaru zasolenia, temperatury i głębokości wody. Badania wykazały, że lej ma co najmniej 420 metrów głębokości, jest więc o co najmniej 119 metrów głębszy niż Dragon Hole. Ostatecznych rozmiarów studni wciąż nie znamy. Użyta przez uczonych sonda może bowiem pracować na maksymalnej głębokości 500 metrów, została rozwinięta w całości i nie sięgnęła dna. Jako że dryfowała badacze odjęli 80 metrów od całkowitej długości sondy uznając, że sięgnęła ona 420 metrów. Badania wykazały również, że poszczególne warstwy wody w studni mają różną temperaturę i zasolenie. Na głębokości poniżej 400 metrów zasolenie i temperatura były bardzo podobne do tych samych parametrów z pobliskiego Morza Karaibskiego. Może to wskazywać, że pod dnem istnieje połączenie pomiędzy Morzem a Taam Ja'. « powrót do artykułu
  14. W Bad Cannstatt, najstarszej dzielnicy Stuttgartu, archeolodzy pracujący na terenie rozbudowy miejscowej szkoły, znaleźli niepozorny kamień, który okazał się silnie zwietrzałą rzeźbą przedstawiającą rzymsko-germańskie bóstwo. W latach 100–150 znajdował się tutaj fort rzymskiej kawalerii, po czym do roku ok. 260 rozwijało się intensywnie osadnictwo cywilne. Znaleziona właśnie rzeźba niewątpliwie ma związek z odkryciami dokonanymi ponad 100 lat temu. Rzeźba ma 30 centymetrów wysokości i przedstawia postać o ludzkiej głowie. Jej ramiona zwisają po obu stronach ciała, a dlonie spoczywają na biodrach. Dolna część ciała postaci ma wężowe kształty. To hybryda łącząca germański i rzymski świat bogów, tak zwanych „gigantów”. Podobne znaleziska wskazują, że figura ta stanowiła część gigantycznej kolumny Jowisza. Kolumny takie łączyły wierzenia klasycznej starożytności z prawdopodobnie wierzeniami germańskimi. Jowisz, ciskając pioruny, jedzie na koniu po postaciach wijących się na ziemi. Postaci te są zwykle nagie i mają brody, jak możemy to zobaczyć w grupie z Hausen an der Zaber, mówi doktor Andreas Thiel. Jednocześnie postaci, po których stąpa koń Jowisza, ukształtowane są tak, jakby konia podtrzymywały. Takie grupy figur stanowiły zwieńczenie wysokich filarów, stawianych w miejscach publicznych. Jowisz jest tutaj prawdopodobnie przedstawiony jako bóg pogody i władca sił natury, dodaje Thiel. Mamy też i to dodatkowe szczęście, że nasz gigant pasuje do innych znalezisk w Bad Cannstatt sprzed ponad 100 lat, stwierdza. Te inne znaleziska to między innymi tak zwany Kamień Czterech Bogów, przedstawiający Merkurego, Junonę, Herkulesa i Minerwę. Kamień znaleziono w 1908 roku w studni znajdującej się  na terenie obecnych wykopalisk. Stanowił on podstawę kolumny Jowisza. Odnalezienie jej kolejnego elementu pozwala w coraz lepszym stopniu zrekonstruować zabytek, który w przeszłości górował nad rzymskim miastem. Założony w tym miejscu fort miał chronić ważny bród oraz rozwijający się lokalny handel. Z czasem powstało tu jedno z największych rzymskich miast współczesnej Badenii-Wirtembergii. Przechodził przez nie niemal cały ruch pomiędzy Mogonatiacum (Moguncja) a Augusta Vindelicorum (Augsburg). Bad Cannstatt zapisał się w historii Europy krwawym epizodem, gdy w 746 roku Karloman, majordom Austrazji, zorganizował spotkanie elity germańskiego związku plemiennego Alamanów. Goście zostali aresztowani, oskarżeni o udział w buncie Teudebalda i zabici. Oznaczało to podporządkowanie Frankom niepokornych Alamanów i wzmocniło pozycję Karolingów, którzy pięć lat później odebrali Merowingom resztki pozornej władzy w państwie Franków. « powrót do artykułu
  15. Fizycy z całego świata przez wiele lat poszukiwali konkretnego stanu jądra atomu toru, który może zapewnić wiele korzyści technologicznych i naukowych. Mógłby on zostać wykorzystany do budowy zegarów atomowych znacznie bardziej precyzyjnych, niż obecne. Mógłby zostać użyty do znalezienia odpowiedzi na podstawowe pytania z dziedziny fizyki, jak na przykład czy pewne stałe są rzeczywiście stałymi czy też ulegają zmianie w czasie i przestrzeni. W końcu się udało. Naukowcy z Uniwersytetu Technicznego w Wiedniu i niemieckiego Narodowego Instytutu Meteorologicznego jako pierwsi wykorzystali laser do precyzyjnego wprowadzenia jądra atomowego na wyższy poziom energetyczny i dokładnego pomiaru jego powrotu do stanu pierwotnego. W ten sposób połączyli klasyczną fizykę kwantową z fizyką atomową. Kluczem do sukcesu było stworzenie specjalnych kryształów zawierających tor. Manipulowanie atomami czy molekułami za pomocą laserów jest codziennością. Jeśli odpowiednio dobierzemy długość fali światła laserowego, możemy przełączać atomy i molekuły w różne stany i dokładnie mierzyć ich energie. Metody takie są powszechnie wykorzystywane w fizyce czy chemii. Lasery używane są też w komputerach kwantowych do przechowywania informacji w atomach lub molekułach. O ile jednak od dawna potrafimy manipulować stanem atomu, to wydawało się to niemożliwe w przypadku stanu samego jądra. Jądro atomowe również może przełączać się pomiędzy różnymi stanami kwantowymi. Jednak zwykle wymaga to co najmniej 1000-krotnie więcej energii niż energia elektronów w atomie czy molekule. Dlatego właśnie manipulowanie jądrem atomowym za pomocą laserów nie wychodziło. Po prostu energia fotonów jest zbyt niska, wyjaśnia profesor Thorsten Schumm, główny autor badań. Ta niemożność laserowego manipulowania jądrem to poważny problem, gdyż jądra atomowe to idealne obiekty kwantowe do precyzyjnych pomiarów. Są znacznie mniejsze niż atomy i molekuły, więc i znacznie mniej podatne na zewnętrzne zakłócenia, taki jak pola elektromagnetyczne. Innymi słowy, jądro atomowe dałoby nam okazję do przeprowadzenia bezprecedensowo precyzyjnych pomiarów. Już w latach 70. w świecie nauki pojawiła się koncepcja, że istnieje pewne jądro atomowe – jądro toru-229 – którym może być łatwiej manipulować za pomocą lasera niż innymi jądrami. Jądro to posiada bowiem dwa bardzo bliskie stany energetyczne. Na tyle bliskie, że energia lasera powinna wystarczyć, by je zmienić. Przez dekady istniały jedynie pośrednie dowody, że do takiej zmiany może dojść. Problem w tym, że aby dokonać za pomocą lasera zmiany stanu energetycznego, musisz bardzo precyzyjnie znać energię potrzebną do przeprowadzenia tej zmiany. Znajomość tej energii z dokładnością do 1 elektronowolta jest bezużyteczna, jeśli do wykrycia zmiany poziomu energetycznego potrzebujesz precyzji rzędu jednej milionowej elektronowolta, dodaje Schumm. Wiele grup naukowych próbowało badać tor utrzymując pojedyncze atomy w pułapkach elektromagnetycznych. Austriacko-niemiecki zespół wykorzystał jednak inną technikę. Uczeni stworzyli kryształy zawierające olbrzymią liczbę atomów toru. Z technicznego punktu widzenia jest to skomplikowane. Jednak ma tę przewagę nad innymi technikami, że możemy badać nie jeden atom, ale jedną wiązką lasera trafić w około 1017 atomów toru. To około milion razy więcej niż jest gwiazd w naszej galaktyce, mówi Fabian Schaden, który stworzył odpowiednie kryształy i dokonywał pomiarów wraz z kolegami z Niemiec. Profesor Schumm od 2009 roku skupił się wyłącznie na poszukiwaniu energii zmiany stanu energetycznego jądra toru-229. Historyczny moment miał miejsce 21 listopada 2023 roku, kiedy po raz pierwszy uzyskano jasny sygnał o zmianie stanu energetycznego jądra atomu po oświetleniu go laserem. Od tamtego czasu autorzy badań szczegółowo sprawdzali i analizowali wyniki eksperymentu, by obecnie móc je publicznie ogłosić. Jesteśmy szczęśliwi, że dokonaliśmy przełomu. Pierwszego laserowego wzbudzenia jądra atomu, cieszy się Schumm. Teraz, gdy wiemy, jak dokonać takiego wzbudzenia, naukowcy mogą przystąpić do wykonywania precyzyjnych pomiarów. Od samego początku pojawienia się koncepcji wzbudzenia jądra toru-229 za pomocą lasera, naukowcy myśleli o zbudowaniu niezwykle precyzyjnego zegara atomowego. Jedna to nie wszystko. Dzięki nowej technologii badania pola grawitacyjnego Ziemi staną się tak precyzyjne, że możliwe będzie wykrywanie złóż minerałów czy niezwykle słabych trzęsień Ziemi. Tor może zostać też wykorzystany do upewnienia się, czy stałe fizyczne na pewno są stałe. Nasza metoda pomiarowa to dopiero początek. Nie jesteśmy w stanie przewidzieć, co dzięki niej zostanie osiągnięte. Ale wiemy, że będą to ekscytujące rzeczy, podsumowuje Schumm. « powrót do artykułu
  16. Edukacja i świadomość społeczeństwa, ciekawość nowych smaków jak i dostępność różnorodnych towarów na rynku przyczyniły się do wzrostu zainteresowania dietami alternatywnymi. Jedną z nich jest wegetarianizm. Sama nazwa pochodzi od łacińskich słów „vegetablis” – roślinny i „vegetare” – rosnąć. Początki wegetarianizmu sięgają Bliskiego Wschodu, a wiara w reinkarnację (hinduzim) skutecznie skłaniała wierzących do odrzucenia mięsa z diety. Podobnie buddyzm jako religia wyznająca szacunek i miłość do wszystkich stworzeń składania do rezygnacji spożywania mięsa, stąd podstawą diety są produkty roślinne (rośliny strączkowe, oleiste, zbożowe, owoce, warzywa czy grzyby) z jednoczesną eliminacją pokarmów mięsnych. Współcześnie wyróżnia się wiele odmian diety wegetariańskiej, np. : Laktowegetarianizm – oprócz produktów roślinnych do diety włącza się mleko i jego przetwory Owowegetarianizm – oprócz produktów roślinnych spożywane są jajka Weganizm – dopuszcza się tylko i wyłącznie żywność pochodzenia roślinnego Witerianizm – opiera się na jedynie produktach roślinnych, w tym 75% żywności ma stanowić żywność surowa Fruterianizm – dieta w głównej mierze składa się z owoców Pescowegetarianizm – dieta roślinna z uwzględnieniem ryb Pollowegetarianizm – dieta bazująca na produktach roślinnych, ale dopuszczająca drób Diety wegetariańskie często stosowane są jako profilaktyka chorób cywilizacyjnych. Spośród państw europejskich największy procent wegetarian jest w Niemczech (9%), Włoszech (7%) oraz w Szwajcarii (5%). W pozostałych krajach wegetarianie stanowią od 0,3 do 4%. Badania wskazują na iż osoby nie jedzące mięsa żyją o średnio 3-4 lata dłużej niż te jedzące mięso. U wegetarian obserwuje się niższy poziom takich parametrów jak: glukoza, cholesterol czy trójglicerydy, a także niższe BMI. Dieta roślinna zapewnia dostarczenie wraz z dietą dużej ilości błonnika i przeciwutleniaczy. U osób stosujących diety roślinne stwierdza się mniejsze ryzyko zachorowania na raka czy choroby serca. Wegetarianizm uznawany jest powszechnie za zdrową alternatywę żywieniową, przy czym ważnym aspektem jest dobre zbilansowanie diety, aby dostarczyć do organizmu wszystkich niezbędnych składników odżywczych w odpowiedniej ilości. W innych wypadku nie prawidłowo stosowana dieta może prowadzić do niedoborów m.in. żelaza, witamina B12 czy białka. [1,2,3] Żelazo w żywności występuje w dwóch formach: forma hemowa (II) – w produktach mięsnych, łatwiej przyswajalna (od 25 do 50%) i forma niehemowa (III) – ta w produktach roślinnych i w mniejszej ilości w produktach zwierzęcych, słabo przyswajalna (od 1 do 10%). Gorsza przyswajalność niehemowej formy żelaza z diety związana jest z obecnością inhibitorów i aktywatorów wchłaniania. Zakwaszanie chleba czy moczenie zbóż i nasion lub procesy fermentacjne mogą wpłynąć na poprawę przyswajalności żelaza. Witamina C i kwasy organiczne w owocach i warzywach także poprawiają przyswajalność. Dorośli wegetarianie mają zazwyczaj niższy poziom żelaza niż osoby jadające mięso, przy czym poziom ferrytyny utrzymuje się zazwyczaj w granicach normy. Dzienne zapotrzebowanie na żelazo przedstawiono w tabeli poniżej: [4,5,6] Grupa płeć/wiek (lata)Żelazo (mg) EARRDA Niemowlęta 0–0,5 0,5–1 0,3 (AI) 7             11 Dzieci 1–3 4–6 7–9 3 4 4 7 10 10 Chłopcy 10–12 13–15 16–18 7 8 8 10 12 12 Mężczyźni 19–30 31–50 51–65 66–75 >75 6 6 6 6 6 10 10 10 10 10 Dziewczęta 10–12 13–15 16–18 7(8)* 8 8 10(15)* 15 15 Kobiety 19–30 31–50 51–65 66–75 >75 ciąża <19 >19 laktacja <19 >19 8 8 6 6 6 23 23 7 7 18 18 10 10 10 27 27 10 10 *przed wystąpieniem miesiączki (po wystąpieniu miesiączki) Zbyt niska podaż i biodostępność żelaza mogą wywołać w organizmie stan niedokrwistości. Według danych WHO z 2015 roku dotyczy ona prawie ¼ całej populacji ludzkiej, przy czym największą grupę stanowią kobiety i dzieci. Przy niedokrwistości z niedoboru żelaza dochodzi do zaburzenia syntezy hemu, czego skutkiem jest powstawanie czerwonych krwinek o mniejszym rozmiarze i zawierających mniej hemoglobiny niż w prawidłowym erytrocycie (tzw. Mikrocyty). Aby stwierdzić obecność mikrocytów należy wykonać badanie morfologii krwi obwodowej. Obniżony jeden z parametrów morfologii jakim jest MCV – wskaźnik objętości krwinki czerwonej – świadczy o występowaniu mikrocytów. Krwinki czerwone przy trwającym niedobrze stają się niedobarwliwe, co odzwierciedla wskaźnik MCH – średniej masy hemoglobiny w krwince czerwonej oraz MCHC – średniego stężenia hemoglobiny w krwince czerwonej. Ponadto mikrocyty można potwierdzić podczas oceny manualnej rozmazu krwi obwodowej. Jednak za najbardziej wiarygodny wskaźniki anemii w morfologii krwi obwodowej jest stężenie hemoglobiny w krwince czerwonej (Hb). Warto podkreślić fakt, iż oznaczanie wolnego żelaza ma niską wartość diagnostyczną i podlega zmienności dobowej jak i osobniczej. Zbyt niska podaż żelaza manifestuje się niedokrwistością, a także upośledza działanie wielu układów takich jak: nerwowy, czy immunologiczny. Charakterystyczne objawy kliniczne niedoboru żelaza to osłabienie, bladość, senność wraz z pojawiającym się wypadaniem włosów, zajadami, czy cieniami pod oczami. [6,7,8] Z kolei zbyt niska podaż witaminy B12 (kobalamina) także prowadzi do upośledzenia prawidłowego funkcjonowania wielu układów, np nerwowego, immunologicznego i podobnie jej niedobór prowadzi do zmian w krwi obwodowej – tzw. Niedokrwistość megaloblastyczna. Dzienne zapotrzebowanie dla osoby dorosłej na witaminę B12 wynosi 2 ug. Komórki, w których dochodzą zmiany spowodowany niedoborem witaminy B12 stają się większe (makrocyty). Jest to efekt zaburzenia produkcji krwinek czerwonych. Parametrem przemawiającym za niedokrwistością megaloblastyczną jest podniesiony wskaźnik MCV – średnia objętość krwinki czerwonej, przy towarzyszącym obniżeniu hemoglobiny (Hb) i hematokrytu (Ht).Objawy towarzyszące tej anemii zbliżone są do objawów anemii z niedoboru żelaza tj. zmęczenie, apatyczność, brak koncentracji, ogólne osłabienie. [9] Hermann i współpracownicy wykazali zależność pomiędzy rodzajem stosowanej diety wegetariańskiej, a stężeniem witaminy B12. Dieta wegańska okazała się być tą najbardziej sprzyjającą awitaminozie B12. Z kolei Krajcovicova-Kudlackova i współpracownicy w swoich badaniach wykazali że zarówno czas i rodzaj stosowanej diety wpływa na stężenie kobalaminy, co przestawiono w tabeli poniżej: Rodzaj stosowanej diety przez około 5–7 latStężenie witaminy B12 [pmol/l] Wegetariańska 140.1 Lakto- i laktoowowegetarianizm 214.8 Dieta tradycyjna 344.7 Wyniki badań jasno wskazują na fakt, iż u osób stosujących dietę wegetariańską dochodzi do obniżenia stężenia składników mineralnych i witamin, a najbardziej restrykcyjna jest dieta wegańska. Stąd niezwykle ważna jest świadomość populacji i konieczność wykonywania badań profilaktycznych z krwi, aby przeciwdziałać ewentualnym niedoborom przez zbilansowanie diety bądź włączenie suplementacji. [10] Bibliografia 1. Dieta wegetariańska - charakterystyka, zasady, jadłospis, serwis Maczfit 2. Pyrzyńska E. – Dieta wegetariańska w świetle zasad prawidłowego odżywiania – podstawy i zachowania wegetarian w Polsce, Zeszyty Naukowe 2013, 906: 27-36 3. Dieta wegetariańska - zasady, rodzaje, przeciwwskazania, serwis HelloZdrowie 4. Biernacka K. (Stowarzyszenie Empatia) - Stanowisko Amerykańskiego Stowarzyszenia Dietetycznego: diety wegetariańskie 5. Jarosz M. – Normy żywienia dla populacji Polski, Instytut żywności i żywienia, 2017 6. Karakulska-Prystupiuk E. – Niedokrwistość z niedoboru żelaza - postępowanie w praktyce lekarza rodzinnego, Lekarz POZ 1/2019, 49-55 7. Niedokrwistosc-z-niedoboru-zelaza.pdf 8. Mikrocyty - Okiem Diagnosty, serwis fremitus.pl 9. Starostka-Tatar, A., Łabuz-Roszak B. – Niedobór witaminy B12 w praktyce klinicznej, Lekarz POZ 6/2023, 279-282 10. Chabasińska M., Przysławski J., Lisowska A., Schlegel-Zawadzka M., Grzymisławski M., Walkowiak J. – Typ i czas stosowania diety wegetariańskiej a surowicze stężenie witaminy B12, Przegląd Gastroenterologiczny 2008; 3 (2): 63–67 « powrót do artykułu
  17. Wpływ człowieka na powierzchnię Ziemi jest oczywisty, widoczny od tysiącleci i dobrze zbadany. Co jednak z głębokimi partiami podpowierzchniowymi? Naukowcy z University of Arizona zbadali, jak człowiek wpływa na obszary planety położone na głębokości poniżej 500 metrów. O wynikach tych badań poinformowali na łamach pisma Earth's Future, wydawanego przez Amerykańską Unię Geologiczną. Porównywaliśmy tempo krążenia cieczy związanych z wydobyciem ropy naftowej i gazu z naturalnym krążeniem wody i wykazaliśmy, że ludzie mają olbrzymi wpływ na obieg płynów pod powierzchnią, mówi główna autorka badań, profesor Jennifer McIntosh z Wydziału Hydrologii i Nauk Atmosferycznych. Głębokie obszary pod powierzchnią nie istnieją w świadomości zdecydowanej większości ludzi. Tymczasem prognozuje się, że w przyszłości nasza aktywność z nimi związana będzie rosła. Być może będziemy pod powierzchnią przechowywali dwutlenek węgla wychwycony z atmosfery, będziemy w większym stopniu korzystali z energii geotermalnej, oczekiwany jest znaczy wzrost produkcji litu. Dlatego uczeni z Arizony uznali, że warto tę kwestię zbadać, a do współpracy zaprosili naukowców z Uniwersytetów Harvarda i Northwestern, kanadyjskiego University of Saskatchewan, Koreańskiego Instytutu Nauk o Ziemi i Zasobów Mineralnych oraz Uniwersytetu Linneusza w Szwecji. W procesie wydobycia ropy i gazu zawsze pojawia się solanka pochodząca z głębi Ziemi. To bardzo stara woda, sprzed milionów lat, w której wysoka zawartość soli pochodzi albo z parowania dawnych oceanów, albo z interakcji ze skałami. W celu zwiększenia efektywności wydobycia solankę tę miesza się z wodą ze źródeł bliskich powierzchni i wtłacza pod ziemię, by wydobyć więcej ropy i utrzymać ciśnienie w zbiorniku. Mamy tutaj do czynienia z cyklem wytwarzania płynu i wstrzykiwania go głęboko pod ziemię. Podobne techniki stosuje się podczas wydobywania litu czy pozyskiwania energii geotermalnej. Wykazaliśmy, że ilość i tempo wstrzykiwania i wypływania płynu podczas wydobycia ropy naftowej i gazu są większe niż procesy naturalne, mówi McIntosh. Naukowcy, korzystając z dostępnych danych o wydobyciu ropy i gazu oraz z badań nad przemieszczaniem płynów stwierdzili, że obecny obieg płynu ma większy zasięg i odbywa się szybciej niż proces naturalny. Przewidują, że zwiększenie produkcji litu na potrzeby samochodów elektrycznych czy przechowywanie CO2 jeszcze przyspieszą ten proces. A jego ślady będą widoczne w zapisie geologicznym. Profesor McIntosh dodaje, że działalność człowieka zmienia nie tylko obieg płynów pod powierzchnią, ale może wpływać też na żyjące pod ziemią mikroorganizmy. Środowisko, w którym żyją może zostać zmienione przez zmiany w składzie chemicznym wody, nowe mikroorganizmy mogą trafić z powierzchni w głąb planety i na odwrót. Na przykład proces szczelinowania hydraulicznego, w ramach którego wykorzystuje się wysokie ciśnienie wody do kruszenia skał pod ziemią może spowodować, że skały, w których dotychczas nie wykrywaliśmy mikroorganizmów zostaną przez nie skolonizowane. Zdaniem McIntosh tego typu badania powinny być kontynuowane. Obecnie więcej wiemy o powierzchni Marsa niż o wodzie, skałach i organizmach żywych znajdujących się głęboko pod naszymi stopami, stwierdza uczona. Warto w tym miejscu przypomnieć o badaniach, z których wynika, że działalność człowieka wpłynęła na ruch obrotowy Ziemi. « powrót do artykułu
  18. Po raz pierwszy astronomom udało się określić dokładne miejsce pochodzenia asteroidy. Bliska Ziemi asteroida 469219 Kamoʻoalewa (2016 HO3) została zauważona w 2016 roku. To quasi-księżyc naszej planety, niewielki obiekt o średnicy 45–58 metrów, którego peryhelium wynosi 0,89 jednostki astronomicznej. Z wcześniejszych obliczeń wynika, że krąży wokół naszej planety od niemal 100 lat i pozostanie jej towarzyszem przez kolejne stulecia. Teraz udało się zidentyfikować konkretny krater na Księżycu, z którego asteroida pochodzi. Spośród ponad 30 000 asteroid bliskich Ziemi (NEA) tylko 10 stanowią obiekty koorbitalne o półosi wielkiej długości około 1 j.a. Asteroida 469219 Kamoʻoalewa to przypadek szczególny, znajduje się w metastabilnym rezonansie ruchu średniego 1:1 z Ziemią. Dlatego też jest celem planowanej chińskiej misji Tianwen-2, która ma pobrać z niej próbki. Niedawno prowadzone obserwacje asteroidy wykazały, że jej powierzchnia ma cechy charakterystyczne dla zwietrzałej powierzchni Księżyca. To pokazało, że 2016 HO3 – w przeciwieństwie do zdecydowanej większości NEA – nie pochodzi z głównego pasa asteroid. Naukowcy z pekińskiego Uniwersytetu Tsinghua, we współpracy z kolegami z University of Arizona, University of British Columbia oraz Université Côte d’Azur wykonali obliczenia, które wykazały, że najbardziej prawdopodobnym miejscem pochodzenia tej asteroidy jest młody księżycowy krater o średnicy większej niż 10–20 kilometrów i wskazali na Giordano Bruno. Znajduje się on po niewidocznej stronie Księżyca, ma 22 kilometry średnicy i powstał 1–10 milionów lat temu. Uderzenie asteroidy, która go utworzyła, wyrzuciło w przestrzeń kosmiczną wiele materiału, który trafił na orbitę wokółsłoneczną. Część tego materiału mogła z czasem znaleźć się w rezonansie 1:1 z Ziemią i pozostaje w nim do dnia dzisiejszego. Niewykluczone, że w przyszłości znajdziemy więcej NEA pochodzących z Księżyca. A o tym, czy autorzy nowej pracy mają rację przekonamy się po zrealizowaniu misji Tianwen-2. « powrót do artykułu
  19. Po trzydziestu latach udało się zidentyfikować miecz znaleziony w 1994 roku w Walencji na ulicy Historiador Chabás. Natychmiast po odkryciu zabytek nazwano „Ekskaliburem”. Inaczej być nie mogło. Miecz znaleziono bowiem w grobie, był wbity w ziemię i spoczywał w pozycji pionowej. W oczywisty sposób kojarzył się więc z pierwowzorem z legend arturiańskich. Walencja (Valentia Edetanorum) została założona w 138 roku p.n.e. przez konsula Decimusa Juniusa Brutusa Callaicusa jako rzymska kolonia dla weteranów. „Valentia” pochodzi od rzymskiego słowa oznaczającego odwagę, a Edetanorum oznacza, że założono ją na terenie zamieszkanym przez iberyjskie plemię Edetanów. Osiemset lat po założeniu, w roku 714 Walencję podbili muzułmanie. Nazwali ją Balansiya. Miasto rozwijało się i w X wieku stało się regionalnym centrum handlowym. Na początku XI wieku na pozostających pod kontrolą muzułmanów terenach Półwyspu Iberyjskiego zaczęły powstawać niewielkie państewka, tajfa. Walczyły one między sobą i z chrześcijanami. W 1010 takie państewko, ogłoszone emiratem, powstało w Walencji i okolicach. Było targane walkami dynastycznymi i najróżniejszymi konfliktami. Niezwykły miecz został znaleziony w islamskim domu znajdującym się w pobliżu dawnego rzymskiego forum. Ostrze ma 46 centymetrów długości i lekko zakrzywia się w stronę czubka. Głowica dekorowana jest płytkami z brązu i jest lekko karbowana, by łatwiej było ją trzymać w dłoni. Broń nie posiada jednak jelca. I to właśnie jej nietypowa budowa była przyczyną, dla której klasyfikacja trwała przez trzy dekady. Umiarkowana długość ostrza i jego zakrzywienie są typowe dla broni wizygockiej, z kolei brak jelca wskazuje na broń jazdy z okresu kalifatu. Dopiero dokładne zbadanie osadów, z których miecz wydobyto pozwoliło na datowanie broni na X wiek, zatem na okres muzułmański. Datowanie wykonano, gdyż udało się zdobyć dofinansowanie z dorocznego grantu przyznawanego przez Radę Miasta Walencja. Grant na lata 2023–2024 w całości przeznaczono na analizę obiektów z metalu, więc naukowcy zajmujący się „Ekskaliburem” mogli o niego wystąpić. To jedyny muzułmański miecz znaleziony na terenie Walencji. Dotychczas znaliśmy tylko jedną podobną broń – miecz odkryty w ruinach Medina Azahara. Był to wspaniały kompleks pałacowy i otaczające go miasto w pobliżu Kordoby. Ich budowę rozpoczął w 936 roku jeden z najwybitniejszych władców, kalif Abd-ar Raman III, który z czasem przeniósł tam swój dwór. Około 70 lat później pałac i miasto zostały splądrowane w wyniku wojny domowej, a zniszczenia dopełnili berberyjscy najemnicy. « powrót do artykułu
  20. Cukrzyca typu 2 (T2D) jest przewlekłą chorobą z zaburzeniami regulacji metabolicznej, w szczególności nieprawidłowym metabolizmem glukozy, któremu towarzyszą powikłania, w tym choroby sercowo-naczyniowe, retinopatia, nefropatia, neuropatia, owrzodzenia nóg i zgorzel. Ze statystyk wynika że w 2013 r. 382 miliony ludzi chorowało na cukrzycę na całym świecie, a prognozuje się, że do 2035 r. Liczba ta wyniesie 592 mln Identyfikacja modyfikowalnych czynników stylu życia, w tym dietetycznych, które zmniejszają częstość występowania T2D, jest istotnym obszarem badań. Jednym z interesujących czynników dietetycznych jest spożywanie żywności bogatej w polifenole. Sugeruje się, że polifenole dietetyczne obniżają ryzyko T2D. POLIFENOLE Polifenole są dużą i niejednorodną grupą fitochemikaliów zawierających pierścienie fenolowe. Kilkaset różnych polifenoli znajduje się w żywności pochodzenia roślinnego, w tym warzywach (szczególnie brokułach, cebuli i kapuście), owocach (winogrona, gruszki, jabłka, wiśnie i różne jagody zawierają do 200–300 mg polifenoli na 100 g świeżej masy). Duże ilości polifenoli zawierają również rośliny strączkowe (soja), zboża, napoje pochodzenia roślinnego i czekolada. W filiżance kawy lub herbaty lub lampce czerwonego wina zidentyfikowano około 100 mg polifenoli. Polifenole dzielą się na flawonoidy, kwasy fenolowe, stylbeny i lignany. Flawonoidy obejmują flawony, flawonole, flawanole, flawanony, izoflawony i antocyjany. Najczęstsze kwasy fenolowe to kwas kawowy (obecny w wielu owocach i warzywach, najczęściej estryfikowany kwasem chinowym jak w kwasie chlorogenowym, który jest głównym związkiem fenolowym w kawie) i kwas ferulowy obecny w zbożach. Najlepiej badanym stylbenem jest resweratrol w winogronach, produktach winogronowych i winie czerwonym. Najbogatszym źródłem lignanów jest siemię lniane (3,7 g/ kg suchej masy). Zaś mniejszymi źródłami są zboża, soczewica, owoce (gruszki, śliwki) i warzywa (czosnek, szparagi, marchew). MECHANIZMY DZIAŁANIA POLIFENOLI W PREWENCJI CUKRZYCY Trawienie węglowodanów i wchłanianie glukozy w jelicie. Hamowanie aktywności α-amylazy i α-glukozydazy (enzymów biorących udział w trawieniu węglowodanów) in vitro wykazały polifenole zawarte w owocach (truskawki, maliny, jagody i porzeczki czarne), warzywach (dynia, fasola, kukurydza i bakłażan), czarnym ryżu, roślinach strączkowych, zielonej i czarnej herbacie oraz czerwonym winie. Flora bakteryjna jelita Metabolity polifenoli pochodzące z metabolizmu wątroby mogą powodować działanie przeciwcukrzycowe. Na wchłanianie polifenoli może mieć wpływ dawka, wielkość związku fenolowego, wcześniejsza dieta, płeć i różnice w populacjach drobnoustrojów jelitowych. Zwiększony poziom bakterii Bifidobacteria w kale związany jest z lepszą tolerancją glukozy i zmniejszonymi markerami stanu zapalnego. Badania wykazały prebiotyczną rolę polifenoli w zwiększeniu populacji Bifidobacteria-spożywanie 494 mg flawanoli kakaowych przez cztery tygodnie znacznie zwiększyło wzrost Lactobacillus i Bifidobacterium w stosunku do napoju zawierającego tylko 29 mg flawanoli. Funkcja komórek beta trzustki Wykazano, że indukowany otyłością stres oksydacyjny w mitochondriach może częściowo odpowiadać za insulinooporność. Podwyższone prozapalne cytokiny mogą zmieniać metaboliczne systemy kontroli homeostatycznej prowadzące do cukrzycy typu 2. Z badań wynika, że procyjanidyny z pestek winogron hamowały wytwarzanie cząsteczek prozapalnych, u szczurów ośmiotygodniowa suplementacja w diecie wysokotłuszczowej bogatym w antocyjaninę 4% jagodowym proszkiem poprawiła wrażliwość na insulinę całego ciała. Kwercetyna również wykazywała działanie przeciwzapalne. Istnieje kilka badań klinicznych, które badają wpływ określonych polifenoli lub produktów spożywczych bogatych w polifenole na zmniejszanie ryzyka insulinooporności. Biorąc pod uwagę mieszane wyniki nadal nie jest jasne, czy bogata w polifenole zielona herbata ma działanie przeciwcukrzycowe. Metaanalizy wykazały, że czekolada lub kakao obniżały insulinę na czczo i insulinę po obciążeniu glukozą oraz poprawiły insulinooporność. Nie stwierdzono wpływu na stężenie glukozy na czczo i hemoglobiny glikowanej. Dzienne spożycie 25 g ciemnej czekolady przez osiem tygodni nie poprawiło poziomu glukozy, insuliny i hemoglobiny glikowanej na czczo u osób z nadciśnieniem cukrzycowym. Biorąc pod uwagę sprzeczne wyniki interwencji, obecne dane są niewystarczające, aby zalecać czekoladę i kakao do kontroli glikemii. Spożycie cynamonu może mieć działanie obniżające glikemię, ale wymagane są dalsze badania obejmujące różne rodzaje i ilości cynamonu oraz typy badanych. Kolejnym badanym produktem były winogrona. Badanie na mężczyznach z co najmniej jednym składnikiem zespołu metabolicznego, spożywających 822 mg polifenoli przez 16 tygodni wykazało znaczne zmniejszenie poziomu insuliny po posiłku i glikemii na czczo w porównaniu z poziomem wyjściowym, ale nie było istotnych różnic w poziomie insuliny na czczo, glukozy po posiłku, hemoglobiny glikowanej i HOMA – IR między nimi i grupą kontrolną. Podsumowując, nie ma przekonujących dowodów na wpływ polifenoli z winogron na homeostazę glukozy. W randomizowanym, kontrolowanym badaniu czerwone wino znacząco poprawiło wrażliwość na insulinę, profil lipidowy i funkcję śródbłonka w porównaniu z innymi napojami alkoholowymi (piwo i wódka), jednak nie ma wielu dowodów na wpływ polifenoli winnych na poziom glukozy i insuliny. Dieta śródziemnomorska bogata w oliwę z pierwszego tłoczenia wykazała 40% zmniejszenie ryzyka cukrzycy typu 2 w porównaniu z grupa kontrolna. Dieta ta poprawiła też metabolizm glukozy i zmniejszyła masę ciała u osób z cukrzycą typu 2. Nie zaobserwowano wpływu zbóż na  glukozę, insulinę, stany zapalne. Podobnie w przypadku warzyw. Większość badań nie wykazała wpływu warzyw na insulinooporność lub ryzyko wystąpienia cukrzycy typu 2, jedynie wysokie dzienne spożycie zielonych warzyw liściastych było odwrotnie związane z ryzykiem jej wystąpienia, oraz wysokie spożycie jagód wiązało się z 35 % niższym ryzykiem zachorowania. Badania in vitro i in vivo wykazały, że dietetyczne związki polifenolowe poprawiły homeostazę glukozy poprzez potencjalne liczne mechanizmy działania w jelicie, wątrobie, adipocytach mięśniowych i komórkach β trzustki, a także poprzez działanie prebiotyczne w przewodzie pokarmowym. Ogólnie rzecz biorąc, większość badań epidemiologicznych wykazała, że polifenole dietetyczne były związane z niższym ryzykiem T2D, ale związek ten nie był całkowicie spójny. Jagody i cynamon mogą być obiecującymi kandydatami do zapobiegania i leczenia cukrzycy. Przeprowadzono jedynie ograniczone badania kliniczne dietetycznych polifenoli w odniesieniu do homeostazy glukozy i insuliny, które nie były tak skuteczne jak badania in vitro i in vivo. Mieszane wyniki mogą być związane ze słabymi analizami statystycznymi, małą wielkością próby i brakiem dynamicznych pomiarów metabolizmu glukozy. « powrót do artykułu
  21. Diagnostyka genetyczna ma na celu poszukiwanie wariantów genetycznych będących przyczyną zaburzeń fenotypowych pacjenta. Każdy pojedynczy genom ludzki zawiera tysiące zmian genetycznych. Tylko nieliczne z nich prowadzą do zmian fenotypowych. Dlatego tak ważna jest ocena prognostyczna ich konsekwencji biologicznych oraz klinicznych. Błędna interpretacja znaczenia wykrytego wariantu może spowodować poważne konsekwencje dla pacjenta oraz jego rodziny. Liczba i różnorodność diagnozowanych wariantów sprawia, że ocena ich konsekwencji funkcjonalnych wymaga wsparcia przez wieloelementową analizę obliczeniową. Obecnie dostępnych jest wiele narzędzi predykcji in silico. Wykorzystują one różnorodne modele obliczeniowe oraz źródła danych genetycznych. Genom człowieka jest to całkowita informacja genetyczna zawarta w zestawie 23 par chromosomów obecnych w jądrze komórkowym (genom jądrowy) oraz w mitochondriach (genom mitochondrialny) [1]. Haploidalny ludzki genom jądrowy ma długość około 3 miliardów par zasad i koduje około 30 000 genów [2]. Genom zbudowany jest z kwasu dezoksyrybonukleinowego (DNA). Składa się z części kodujących białka tzw. eksonów obejmujących Dla przetrwania oraz prawidłowego rozrodu wymagana jest stabilność genetyczna. Jest ona zapewniana przez proces replikacji oraz mechanizmy naprawy wychwytujące i korygujące błędy wynikające z pomyłek aparatu replikacyjnego oraz z przypadkowych uszkodzeń DNA. Czasem jednak mechanizmy naprawy okazują się zawodne i wtedy zamiast zmiany przejściowej dochodzi do utrwalenia błędu. Takie trwałe zmiany, które mogą lecz nie muszą, prowadzić do poważnych konsekwencji, nazywamy mutacjami. Efekty wpływu mutacji na komórkę, organizm zależą od wielu czynników m.in. rodzaju wariantu, miejsca powstania [4]. Mutacje zgodnie z definicją, są to wszelkie trwałe zmiany w sekwencji nukleotydowej o częstości populacyjnej poniżej 1%. Termin polimorfizm jest zdefiniowany jako wariant występujący w populacji z częstością 1% lub większą. Warianty genetyczne można sklasyfikować na podstawie wielu różnych parametrów m.in.: ze względu na zakres jaki obejmują, mechanizm powstawania, miejsca powstania lub konsekwencje jakie wywołują [5]. Wśród mutacji genowych dodatkowo wyróżnić można mutacje punktowe, które dotyczą zmian pojedynczych nukleotydów. Dynamiczny rozwój diagnostyki molekularnej wymusił konieczność wprowadzenia ujednoliconego oraz jednoznacznego zapisu wariantów sekwencji nukleotydowej. Na podstawie zestawu standardowych kryteriów powstała międzynarodowa, referencyjna nomenklatura wariantów genetycznych. Za utrzymywanie i wersjonowanie nomenklatury odpowiedzialna jest organizacja Human Genome Variation Society (HGVS). Opracowane wytyczne umożliwiają efektywne współdzielenie oraz użytkowanie informacji genomowych. Wszystkie laboratoria genetyczne zobligowane są do zapisu wyniku badania genetycznego zgodnie z wytycznymi HGVS [5,6]. Przyjęte rekomendacje dostępne są do publicznej wiadomości na stronie internetowej www.varnomen.hgvs.org [7]. Celem diagnostyki genetycznej jest wsparcie oceny klinicznej oraz podejmowanych decyzji medycznych. Błędna interpretacja znaczenia wykrytego wariantu może spowodować poważne konsekwencje dla pacjenta oraz błędną stratyfikację ryzyka dla członków jego rodziny. W 2013 r. organizacja American College of Medical Genetics and Genomics (ACMG) zwołała specjalną grupę roboczą złożoną z przedstawicieli ACMG, American Association for Molecular Pathology (AMP) oraz College of American Pathologists (CAP). Grupa ta składała się z klinicystów oraz dyrektorów laboratoriów klinicznych. Celem było opracowanie międzynarodowych wytycznych dotyczących klasyfikacji znaczenia wariantów genetycznych wykrywanych w analizach sekwencjonowania genomu ludzkiego. W 2015 roku został opublikowany specjalny raport przedstawiający szczegółowe rekomendacje dotyczące testów genetycznych wykonywanych w laboratoriach klinicznych. Warianty identyfikowane w chorobach monogenowych, dziedziczonych zgodnie z prawami Mendla zaklasyfikowano do pięciu kategorii: ● wariant patogenny (ang. pathogenic), ● wariant potencjalnie patogenny (ang. likely pathogenic), ● wariant o niepewnym znaczeniu (ang. uncertain significance), ● wariant potencjalnie łagodny (ang. likely benign), ● wariant łagodny (ang. benign) [6]. “In silico” jest to termin naukowy określający sposób wykonania czynności, badania, testu. Oznacza, że analiza została przeprowadzona za pomocą komputera i urządzeń informatycznych. Nazwa powstała analogicznie do terminów in vitro i in vivo [10]. Diagnostyka genetyczna ma na celu poszukiwanie wariantów genetycznych będących przyczyną zaburzeń fenotypowych pacjenta. Wykorzystuje analizę asocjacji polegającą na łączeniu określonego wariantu z wystąpieniem danej cechy [11]. Analiza bioinformatyczna wyniku pacjenta składa się z wielu etapów. Obejmuje m.in. następujące analizy in silico: ● porównywanie sekwencji badanej z sekwencją referencyjną - sekwencje referencyjne dostępne są w wielu przeglądarkach genomowych, do najczęściej stosowanych należą m.in. GenBank, LRG oraz Ensembl, ● przeszukiwanie baz danych populacyjnych, gromadzących informacje o częstościach wariantów np.1000 Genomes,, Exome Aggregation Consortium (ExAC), Exome Variant Server, ● przeszukiwanie biomedycznych baz danych, gromadzących informacje o klinicznym znaczeniu wariantów, powiązaniu fenotypowym, zaburzeniach genetycznych m.in. ClinVar, OMIM, Human Gene Mutation Database (HGMD) ● przeszukiwaniu biomedycznych publikacji naukowych, ● interpretację wpływu wykrytego wariantów na genom oraz kodowane białko z zastosowaniem programów predykcyjnych [6,7,8]. W chwili obecnej dostępnych jest wiele narzędzi predykcji in silico, a analiza patogenności wariantów genetycznych jest kluczowa w skutecznej diagnostyce genetycznej i następującej po niej terapii. Piśmiennictwo [1] Brown, T. A.: The Human Genome. Oxford: Wiley-Liss 2002 [2] National Human Genome Research Institute (NHGRI). Human Genome Project Completion: Frequently Asked Questions. https://www.genome.gov [3] Friedman J.M., Dill F.J. , Hayden M.R., McGillivaray B.C.: Genetyka. Wydawnictwo medyczne Urban & Partner, Wydanie I polskie pod redakcją Limona J., Wrocław 1996 [4] Alberts B., Bray D., Johnson A., Lewis J., Raff M., Roberts K., Walter P.: Podstawy biologii komórki. Wprowadzenie do biologii molekularnej. Wydawnictwo Naukowe PWN, przekład pod redakcją Michejdy J. i Augustyniaka J., Warszawa 1999 [5] Claustres M., Kozich V., Dequeker E., Fowler B., Hehir-Kwa J.Y., Miller K., Oosterwijk C., Peterlin B., van Ravenswaaij-Arts C., Zimmermann U., Zuffardi O., Hastings R.J. and David E., Barton D.E., on behalf of the ESHG Quality committee: Recommendations for reporting results of diagnostic genetic testing (biochemical, cytogenetic and molecular genetic). European Journal of Human Genetics 2014; 22 [6] Richards S., Aziz N., Bale S., Bick D., Das S., Gastier-Foster J., Grody W.W., Hegde M., Lyon E., Spector E., Voelkerding K., Rehm H.L., on behalf of the ACMG Laboratory Quality Assurance Committee: Standards and Guidelines for the Interpretation of Sequence Variants: A Joint Consensus Recommendation of the American College of Medical Genetics and Genomics and the Association for Molecular Pathology. Genetics in Medicine 2015; 17 [7] https://varnomen.hgvs.org [8] den Dunnen J.T., Dalgleish R. , Maglott D.R., Hart R.K., Greenblatt M.S., McGowan-Jordan J., Roux A.F., Smith T., Antonarakis S.E., Taschner P.E.: HGVS Recommendations for the Description of Sequence Variants. Hum Mutat. 2016; 37(6) [9] Kim Y.E., Ki C.S., Jang M.A.: Challenges and Considerations in Sequence Variant Interpretation for Mendelian Disorders. Ann Lab Med 2019; 39(5) [10] Colquitt R.B., Colquhoun D.A., Thiele R.H.: In silico modelling of physiologic systems. Best Practice & Research Clinical Anaesthesiology 2011; 25 [11] Słomski R.: Analiza DNA - Teoria i Praktyka. Wydawnictwo Uniwersytetu Przyrodniczego w Poznaniu, Poznań 2008 « powrót do artykułu
  22. Koagulologia jest dziedziną diagnostyki laboratoryjnej, która służy ocenie zaburzeń krzepnięcia krwi, czyli weryfikuje zdolność do zatrzymania krwawień, ale także obrazuje efekt nadmiernego aktywowania krzepnięcia lub za słabe jego hamowanie. W pierwszym przypadku mamy do czynienia z niepohamowanym, obfitym krwawieniem, natomiast w drugim obserwujemy możliwość powstawania zatorów, które mogą powodować udary bądź zawały. Badania te służą również do monitorowania działania i stężeń niektórych leków. Krzepnięcie krwi jest naturalnym, fizjologicznym procesem, które zapobiega jej utracie w wyniku przerwania ciągłości naczyń krwionośnych. Jest mechanizmem obronnym organizmu w przypadku przerwania ciągłości tkanek. Najprostszy mechanizm to przejście fibrynogenu, który krąży w osoczu, w przestrzenną sieć fibryny(skrzep) pod wpływem trombiny. Hemostaza to zespół procesów które przyczyniają się do utrzymywania krwi w łożysku naczyniowym w stanie płynnym a w przypadku jej zaburzenia dochodzi do aktywowania czynników naprawczych. Czynnik, które przyczyniają się do prawidłowej hemostazy można podzielić następująco: wydzielanie przez komórki śródbłonka prostacykliny (PGI2), która hamuje agregację płytek i powoduje rozszerzenie naczynia; ujemne ładunki elektryczne śródbłonka i płytek krwi, co powoduje, że komórki śródbłonka i nieaktywne płytki krwi odpychają się nawzajem; czynniki krzepnięcia krwi w osoczu są nieczynnymi prekursorami, które pod wpływem innych czynników ulegają aktywacji obecność kwasu 13-hydroksyoktadekadienowego obecność inhibitorów; najważniejsze z nich to: antytrombina (AT), układ antykoagulacyjny białka C i inhibitor drogi zależnej od czynnika tkankowego. Najważniejsze inhibitory występujące w osoczu: Antytrombina(AT) AT jest glikoproteiną syntetyzowaną w wątrobie, komórkach śródbłonka naczyń i prawdopodobnie w megakariocytach. Aktywność antykoagulacyjna wzrasta 1000-krotnie w obecności heparyny. W warunkach fizjologii siarczan heparanu zlokalizowany na powierzchni komórek śródbłonka naczyń odpowiada za unieczynnienie antytrombiny. Jest głównym inhibitorem trombiny (czynnika IIa) i czynnika Xa, ale unieczynnia też czynniki XIIa, XIa, plazminę i kalikreinę. Białko C – jest witamino-K zależną glikoproteiną, produkowaną w wątrobie. Najważniejszym fizjologicznym aktywatorem białka C jest trombina. Kofaktorem tej reakcji jest zlokalizowana na powierzchni śródbłonka trombomodulina. Hemostaze dydaktycznie i umownie dzielimy na pierwotną, prowadzącą do powstawania skrzepu płytkowego i wtórną-osoczową, prowadzącą do powstawania fibryny. Hemostaza pierwotna Komórki śródbłonka prawidłowe są niereaktywne względem płytek krwi. Kiedy nastąpi ich uszkodzenie wyzwalają się procesy, które służą przede wszystkim zmianom morfotycznym w płytkach, a co za tym idzie umożliwiają im adhezję oraz agregację. Na hemostazę pierwotną składają się następujące procesy: obkurczanie naczynia na skutek uszkodzenia jego ściany i wydzielania m.in. serotoniny, adhezja krwinek płytkowych do odsłoniętych elementów podśródbłonka, agregacja odwracalna krwinek płytkowych, reakcja uwalniania, agregacja nieodwracalna krwinek płytkowych. W skrócie hemostaza płytkowa to: aktywacja, adhezja, agregacja oraz uwalnianie. Hemostaza osoczowa Proces związany z białkami występującymi w osoczu oraz białkami związanymi z błoną komórkową tkanek. Ma na celu wytworzenie fibryny. Wyróżnia się dwa szlaki, które są ze sobą powiązane: szlak zewnątrzpochodny i wewnątrzpochodny. Jest to kasaka enzymów. Oba szlaki przebiegają z wytworzeniem czynnika Xa i posiadają wspólną drogę końcową. Szlak wewnątrzpochodny jest szlakiem zależnym od kontaktu. Aktywowany zostaje poprzez kontakt czynnika XII z kalikreinami, kolagenem i kininogenami. Prowadzi to do powstania czynnika XIIa, co prowadzi do reakcji kaskadowej. Maksymalna aktywność czynnika XII występuje w obecności kalikreiny i wielkocząsteczkowego kininogenu. Kalikreina powstaje w wyniku proteolizy prekalikreiny przez czynnik XII. Czynnik X może zostać aktywowany przez czynnik VIIa. Szlak zewnątrzpochodny jest szlakiem zależnym od czynnika tkankowego. Jest zapoczątkowany przez aktywację czynnika VII do VIIa w obecności tromboplastyny tkankowej i jonów wapnia. Czynnik VIIa aktywuje czynnik X. Tromboplastyna tkankowa jest uwalniana z uszkodzonych tkanek. Szlak zewnątrzpochodny przebiega szybciej od wewnątrzpochodnego, mimo tego że wszystko dzieje się w jednym czasie. Trombina powoduje odczepienie dwóch par fibrynopeptydów od z fibrynogenu, który określa się jako monomer fibryny. Monomery fibryny ulegają nieenzymatycznej polimeryzacji, ostatecznie tworząc przestrzenny polimer fibryny labilnej (Ia). Następnie pod wpływem czynnika XIIIa ulega on przekształceniu do bardziej stabilnego i wytrzymałego włóknika (Ib). Po wytworzeniu skrzepu dochodzi do jego retrakcji. Do najważniejszych badań biochemicznych wchodzących w skład koagulogramu obrazującego działanie hemostazy zaliczamy: PT – czas protrombinowy, inaczej zwany INR, określa działanie szlaku zewnątrzpochodnego APTT – czas koalinowo-kefalinowy, określa sprawność działania szlaku wewnątrzpochodnego Stężenie fibrynogenu Czas trombinowy Czas krwawienia Stężenie d-dimerów Aktywność antytrombiny Aktywność innych osoczowych czynników krzepnięcia. APTT: norma: 28-34 sek. Wartość powyżej normy obserwujemy przy : wrodzonym niedoborze czynnika VIII (hemofilia A), IX (hemofilia B), XI (hemofilia C), afibrynogenemii, hipo- i dysfibrynogenemia, niektóre postaci choroby von Willebranda oraz w obecności inhibitorów krzepnięcia (heparyna, produkty degradacji fibrynogenu, krążące antykoagulanty) Wartość poniżej normy sugeruje nadkrzepliwość lub błędy techniczne w pobieraniu krwi(skrzep w probówce z osoczem). PT: norma: 13-17 sek. lub 0,9-1,3 INR (2-4 INR zakres terapeutyczny) lub 80-120 proc. (wskaźnik Quicka) Wartość powyżej normy obserwujemy w: wrodzonym niedoborze czynników II, V, VII, X, przewlekłych chorobach miąższu wątroby, niedoborze witaminy K, rozsianym wykrzepianiu wewnątrznaczyniowym (DIC), białaczce, mocznicy, chorobie Addisona-Biermera Wartość poniżej normy może wskazywać m.in. na zakrzepicę i trombofilię,     TT: norma: ok. 15-20 sek. Wartość powyżej normy obserwujemy w: zespole rozsianego wykrzepiania śródnaczyniowego, marskości i w innych chorobach wątroby, przy leczeniu inhibiotorami trombiny (heparyna) Fibrynogen: norma:1,8 - 3,5 g/L Wartość powyżej normy sugerują choroby nerek (zespół nerczycowy, kłębuszkowe zapalenie nerek, zespół hemolityczno- mocznicowy), zawał serca i udar mózgu, choroby nowotworowe, plamica zakrzepowa małopłytkowa, kolagenozy, stosowaniu niektórych leków, w tym doustnych środków antykoncepcyjnych Fizjologicznie stężenie fibrynogenu wzrasta podczas miesiączki i w okresie ciąży. Wartość poniżej normy obserwujemy w: wrodzonych niedoborach fibrynogenu, chorobach wątroby (piorunujące zapalenie wątroby, marskość, martwica wątroby, śpiączka wątrobowa), zespole rozsianego wykrzepiania śródnaczyniowego (DIC), skazach fibrynolitycznych (pokrwotoczne, pourazowe, pooparzeniowe, ostra białaczka promielocytowa, nowotwory) Antytrombina AT: norma: aktywność: 75-150 % Wartość powyżej normy obserwujemy przy: wirusowym zapaleniu wątroby, niedoborze witaminy K, leczeniu sterydami anabolicznymi. Pojawia się także u pacjentów po przeszczepie nerki Wartość poniżej normy: m.in. uszkodzenie wątroby,  niewydolność nerek, choroba nowotworowa, zakrzepica naczyń, zatorowość płucna. Normy mogą się różnić w zależności od laboratorium w których wykonuje się badanie! Koagulogram wykonuje się przy każdorazowej operacji bądź zabiegu. Wskazaniami do jego wykonania są także: Obfite miesiączki Nawracając krwawienia z nosa, dziąseł, układu pokarmowego Długotrwałe krwawienia przy zranieniach Wybroczyny na skórze bądź błonach śluzowych Tendencja do siniaków, w szczególności przy niewielkich nawet urazach U kobiet rezygnujących z doustnej antykoncepcji Monitorowanie leczenia lekami szczególnie przeciwzakrzepowymi. Procedura pobrania krwi do badań jest standardowa. Pacjent nie musi być na czczo ale jest to zalecane, jak przy większości badań. Krew pobiera się z żyły, najczęściej łokciowej, do specjalnej probówki, która zawiera antykoagulant. Bibliografia : Mała encyklopedia medycyny. Tadeusz Różniatowski (red.). T. I, A-O. Warszawa: PWN, 1982, s. 558–559. ISBN 83-01-00200-X. Koagulologia. W: Witold Doroszewski: Słownik języka polskiego. PWN, 1958–1969. Ernst Mutschler: Farmakologia i toksykologia. Wrocław: MedPharm Polska, 2010, s. 529–530. ISBN 978-83-60466-81-0. Claude A. Villee: Biologia. Wydanie IX. Państwowe Wydawnictwo Rolnicze i Leśne, Warszawa 1990. Dział: Budowa i koordynacja czynności organizmu. Podrozdział: Krzepnięcie krwi. s. 390–391. ISBN 83-09-00748-5. Władysław Traczyk: Fizjologia człowieka w zarysie. Warszawa: PZWL, 2002. ISBN 83-200-2694-6. Choroby wewnętrzne. Przyczyny, rozpoznanie i leczenie, tom I, Andrzej Szczeklik (red.), Jerzy Alkiewicz, Kraków: Wydawnictwo Medycyna Praktyczna, 2005, s. 30–31, ISBN 83-7430-031-0, OCLC 830805120. Franciszek Dubert, Ryszard Kozik, Stanisław Krawczyk, Adam Kula, Maria Marko-Worłowska, Władysław Zamachowski: Biologia na czasie 2. Podręcznik dla liceum ogólnokształcącego i technikum. Zakres rozszerzony. Do nowej podstawy programowej. Rok dopuszczenia: 2013. Numer ewidencyjny w wykazie MEN: 564/2/2013. s. 130. ISBN 978-83-267-1805-2. J.M. Conly, K. Stein. The production of menaquinones (vitamin K2) by intestinal bacteria and their role in maintaining coagulation homeostasis. „Prog Food Nutr Sci”. 16 (4). s. 307–343. PMID: 1492156. Patomorfologia kliniczna. Podręcznik dla studentów medycyny. Kruś Stefan, Skrzypek-Fakhour Ewa (red.). Warszawa: Państwowy Zakład Wydawnictw Lekarskich, 2005. ISBN 83-200-3111-7. Krzepnięcie krwi. W: Claude A. Villee: Biologia. Wyd. IX. Warszawa: Państwowe Wydawnictwo Rolnicze i Leśne, 1990, s. 390–391. ISBN 83-09-00748-5. Stanisław Konturek: Fizjologia człowieka. Wrocław: ELSEVIER URBAN & PARTNER, 2007. ISBN 978-83-89581-93-8. Diagnostyka laboratoryjna, pod. red. Szutowicz A., Raszei-Specht A., wyd. Gdański Uniwersytet Medyczny, Gdańsk 2009. « powrót do artykułu
  23. Samochody przeszły długą drogę od momentu wynalezienia pierwszego pojazdu napędzanego silnikiem spalinowym. Na przestrzeni lat ewoluowały one pod względem technologicznym, designu oraz funkcjonalności. Poznaj historię ewolucji samochodów! Początki motoryzacji – pierwsze pojazdy samobieżne Współczesne samochody są nowoczesne i naszpikowane zaawansowanymi technologiami. Aż trudno uwierzyć, że prototypy pojazdów samobieżnych napędzane były siłą wiatru. Projekt takiej maszyny był włoski inżynier Roberto Valturio, tematem interesował się także Leonardo da Vinci. Żaglowozy pojawiły się Niderlandach – można je było zobaczyć na tamtejszych drogach już w na początku XVII wieku. Jednak pierwszy pojazd samobieżny, który był zdolny do przewozu osób i dał zalążek współczesnej motoryzacji, pojawił się w roku 1765. Jego konstruktorem był francuski inżynier Nicolas Josepha Cugnot. Maszyna powstała na potrzeby armii i miała pełnić funkcję ciągnika artyleryjskiego. W ten sposób rozpoczęła się przygoda, która trwa do dzisiaj. Branża samochodowa budzi duże zainteresowanie i generuje ogromne zyski. Wynalazcy sprzed stuleci na pewno nie spodziewali się, jak może ewoluować ich pomysł. Dzięki nim każdy z nas może swobodnie przemieszczać się z miejsca na miejsce. Oczywiście warunkiem jest spełnienie wymogów – posiadanie prawa jazdy, wykonywanie corocznych przeglądów oraz wykupienie obowiązkowej polisy. Aktualne ceny znajdziesz tutaj – kalkulator oc HDI. Tak powstawały konstrukcje współczesnych samochodów Jak wspomniano wcześniej, pierwsze próby skonstruowania samochodu we współczesnym rozumieniu sięgają XVIII wieku, kiedy to powstały pojazdy napędzane silnikiem parowym. Jednak prawdziwy przełom nastąpił w 1886 roku, gdy Carl Benz opatentował pierwszy pojazd napędzany silnikiem spalinowym. Był to trójkołowy pojazd nazwany Benz Patent-Motorwagen Nummer 1, który uznawany jest za protoplastę współczesnych samochodów. W 2011 roku akt patentowy został wpisany na listę Pamięć Świata. Jest to projekt pod patronatem UNESCO, który ma chronić najbardziej wartościowe dla ludzkości dokumenty. W kolejnych latach pojawiały się nowe konstrukcje, takie jak pierwszy seryjnie produkowany samochód Benz Velo z 1894 roku (maksymalna prędkość wynosiła zawrotne 30 km/h) czy Ford Model T, który zrewolucjonizował przemysł motoryzacyjny dzięki wprowadzeniu taśmowej produkcji. Samochody z początku XX wieku charakteryzowały się prostą budową, otwartym nadwoziem i niewielkimi silnikami. Rozwój technologii i designu w branży motoryzacyjnej Wraz z upływem czasu samochody stawały się coraz bardziej zaawansowane technologicznie. W latach 20. i 30. XX wieku pojawiły się pierwsze pojazdy z zamkniętym nadwoziem, elektrycznym rozrusznikiem czy hydraulicznymi hamulcami. Zaczęto także zwracać uwagę na design, tworząc bardziej opływowe i eleganckie karoserie. Lata 50., 60. i 70. to okres rozkwitu motoryzacji, szczególnie w Stanach Zjednoczonych. Powstawały duże, mocne samochody z silnikami V8, bogato wyposażone i efektownie stylizowane. Były to auta typu muscle car i pony car – miały masywną sylwetkę i dużą moc. W Europie dominowały mniejsze, ekonomiczne pojazdy dostosowane do węższych ulic i wyższych cen paliwa. Samochody współczesne Obecnie samochody to zaawansowane technologicznie maszyny wyposażone w elektroniczne systemy wspomagające kierowcę, zapewniające wysoki poziom bezpieczeństwa i komfortu. Coraz większą rolę odgrywają kwestie ekologii, stąd dynamiczny rozwój pojazdów z napędem hybrydowym i elektrycznym. Współczesne trendy w designie samochodów to m.in. dążenie do aerodynamicznej sylwetki, LED-owe oświetlenie, duże alufelgi i muskularne proporcje nadwozia. Jednocześnie producenci starają się wyróżnić swoje modele charakterystycznym wyglądem zgodnym z filozofią marki. Innowacje i kierunki rozwoju Branża motoryzacyjna nieustannie poszukuje innowacyjnych rozwiązań, które mają uczynić samochody bardziej przyjaznymi dla środowiska, bezpiecznymi i funkcjonalnymi. Kluczowe kierunki rozwoju to elektromobilność, autonomiczne systemy jazdy czy komunikacja między pojazdami. Coraz większe znaczenie zyskują także usługi mobilności, takie jak car-sharing czy abonamenty na samochody. Zmienia się podejście do własności pojazdu, szczególnie wśród młodszych pokoleń, które chętniej korzystają z elastycznych form użytkowania aut. Nadal jednak samochody pozostają wyznacznikami statusu – mimo swojej powszechnej dostępności. Ewolucja pojazdów – niezwykła podróż przez historię Historia samochodu to fascynująca opowieść o ludzkiej pomysłowości, innowacyjności i dążeniu do ciągłego ulepszania środków transportu. Od pierwszych prymitywnych pojazdów napędzanych silnikiem parowym, przez kultowe modele będące ikonami swoich epok, aż po zaawansowane technologicznie współczesne auta – samochody przeszły ogromną ewolucję. Dziś stoją one przed nowymi wyzwaniami związanymi z ochroną środowiska, bezpieczeństwem i zmieniającymi się potrzebami użytkowników. Jednak jedno pozostaje niezmienne – samochody nadal są symbolem wolności, niezależności i realizacji marzeń o podróżowaniu, odgrywając istotną rolę w życiu milionów ludzi na całym świecie. « powrót do artykułu
  24. Geolodzy z MIT oraz Uniwersytetu Oksfordzkiego odkryli najstarsze skały ze śladami ziemskiego pola magnetycznego. Dziewicze skały, które zachowały swoje właściwości od czasu powstania, pochodzą sprzed 3,7 miliarda lat. Widać w nich ślady ziemskiego pola magnetycznego o natężeniu co najmniej 15 mikrotesli (µT). To najstarsze znane dowody na istnienie pola magnetycznego chroniącego planetę. Odkrycie oznacza, że pole magnetyczne Ziemi jest starsze o setki milionów lat niż sądzono i może mieć duże znaczenie dla badań nad początkami życia. Istnienie pola magnetycznego to, przynajmniej w teorii, jeden z powodów, dla których uważamy Ziemię za unikatową zamieszkałą planetę. Powszechnie uważa się, że pole magnetyczne chroni nas przed szkodliwym promieniowaniem z kosmosu i umożliwia istnienie stabilnych oceanów i atmosfery, mówi Claire Nichols z Oksfordu. Dotychczasowe badania pokazywały, że pole magnetyczne Ziemi liczy sobie co najmniej 3,5 miliarda lat. Teraz widzimy, że jest o co najmniej 200 milionów lat starsze. To ważne, gdyż mówimy tutaj o okresie, w którym na Ziemi powstawało życie. Jeśli pole magnetyczne istniało kilkaset milionów lat wcześniej, mogło odegrać kluczową rolę w spowodowaniu, że Ziemia nadawała się do życia, wyjaśnia profesor Benjamin Weiss z MIT. Pole magnetyczne nie tylko chroni naszą planetę przed szkodliwym promieniowaniem, ale umożliwia jej też utrzymanie atmosfery. Skały tworzą się przez miliony lat, w miarę jak nawarstwiają się osady i minerały, które stopniowo są ściskane przez kolejne warstwy. W takich osadach znajdują się też cząsteczki minerałów reagujących na pole magnetyczne, takie jak tlenki żelaza. Układają się one wzdłuż linii pola magnetycznego. I właśnie ta ich wspólna zbiorowa orientacja wskazuje na jego istnienie. Jednak dane takie mogą zostać zniszczone, jeśli skały przeszły przemiany. Stąd też wyniki badań dotyczących śladów pola magnetycznego w skałach budzą w środowisku specjalistów wiele sporów. Uczeni z MIT i Oksfordu, poszukując skał, które mogły nie zostać przeobrażone, wybrali się na Grenlandię do odległej lokalizacji znanej jako Isua Supracrustal Belt. Badając próbki swoich skał stwierdzili, że musiały one powstać dawniej niż 2,5 miliarda lat temu, jeszcze zanim w atmosferze pojawił się tlen. Skały utworzyły się więc w oceanie. "Wtedy nie było tlenu w atmosferze, żelazo nie utleniało się tak łatwo, więc to co tu widzimy to tlenek żelaza, który był rozpuszczony w wodzie, osiągnął wysokie stężenie i opadł na dno", wyjaśnia Nichols. To piękne, dziwaczne skały, które wyglądają zupełnie inaczej niż to, co się tworzy obecnie na Ziemi, dodaje Weiss. Przeprowadzone w laboratorium badania nie tylko pozwoliły na określenie wieku skał, ale i na zmierzenie pola magnetycznego sprzed 3,7 miliarda lat. Okazało się, że jego natężenie wynosiło 15 µT, było więc dwukrotnie mniejsze od obecnego pola. To połowa natężenia, ale ten sam rząd wielkości. To pokazuje, że cokolwiek napędza pole magnetyczne Ziemi, to jego natężenie nie uległo znacznej zmianie przez miliardy lat, mówi Nichols. Naukowcy odkryli też, że skały zachowały zapis o polu magnetycznym, mimo że przeszły później dwa epizody, w których zostały ogrzane. Wszystko wskazuje na to, że gdy skały się utworzyły 3,7 miliarda lat temu, doszło do ich ogrzania do wysokiej temperatury i krystalizacji. Później jeszcze dwukrotnie, 2,8 miliarda lat temu i 1,5 miliarda lat temu, zostały ogrzane, ale temperatury nie były tak wysokie jak pierwotnie, więc zapis ich magnetyzacji się nie zmienił. Wciąż nie wiadomo, co było źródłem pola magnetycznego przed miliardami lat. Zgodnie z obecnymi teoriami, pole magnetyczne generowane jest w wewnętrznym jądrze Ziemi. Jednak nauka uważa, że nie istniało ono 3,7 miliarda lat temu. Cokolwiek generowało wtedy pole magnetyczne, było czymś innym niż obecnie. Zajmuje nas Ziemia, bo istnieje na niej życie, ale te badania pozwalają lepiej zrozumieć inne planety typu ziemskiego. Pokazują bowiem, że planety mają wiele różnych sposobów na wytworzenie pola magnetycznego, a to ważna kwestia w poszukiwaniu planet, na których mogło powstać życie, dodaje profesor Weiss. « powrót do artykułu
  25. Psycholodzy społeczni z Uniwersytetu w Amsterdamie postanowili zbadać, na ile ludzie wierzą naukowcom z różnych dziedzin. W ich badaniach wzięło udział 2780 Amerykanów, a zebrane od nich dane pozwoliły na określenie poziomu zaufania do specjalistów z 45 dziedzin nauki. To prawdopodobnie pierwsze badania tego typu, którymi objęto tak wiele różnych dziedzin. Ich uczestnicy mieli określić poziom kompetencji (na ile są mądrzy i inteligentni), asertywności (na ile sprawiają wrażenie pewnych i asertywnych), moralności (na ile są uczciwi) oraz przyjazności. Badania prowadzono w oparciu o nowo opracowany Influence Granting Task, w ramach którego uczestnicy mieli do rozwiązania złożone problemy i mogli scedować podjęcie decyzji na różne grupy, w tym przyjaciół czy wszystkich obywateli. Jedną z tych grup byli naukowcy. Autorzy eksperymentu zauważyli, że ludzie generalnie ufają naukowcom, ale poziom zaufania znacząco się różni w zależności od dziedziny nauki. Najmniejszym zaufaniem na 7-punktowej skali cieszyli się politolodzy (3,71 pkt.) i ekonomiści (4,28 pkt.). Najwięcej zaś zaufania pokładamy w neurobiologach (5,53 pkt.) i biologach morskich (5,54 pkt.). Okazuje się, że najważniejszymi czynnikami, które decydują o poziomie społecznego zaufania do naukowców z danej dziedziny są ich kompetencje oraz moralność. Gdy naukowcy są postrzegani jako kompetentni i moralni, ludzie z większym prawdopodobieństwem powierzają im rozwiązywanie problemów społecznych. Co interesujące, wpływ moralności na zaufanie był różny dla różnych dziedzin nauki. Moralność najbardziej liczyła się na tych polach naukowych, które wywołują obecnie kontrowersje w mediach – jak w klimatologii czy socjologii – a mniej na polach niekontrowersyjnych, jak geografia czy archeologia. Największym zaufaniem społecznym – jak już wspomnieliśmy – cieszą się biolodzy morscy i neurobiolodzy. W pierwszej 10 zaufania znaleźli się też zoolodzy, astrofizycy, oceanografowie, inżynierowie lotniczy i kosmiczni, mikrobiolodzy, astronomowie, immunolodzy i biolodzy. Z kolei najniżej na liście zaufania uplasowali się politolodzy, ekonomiści, socjolodzy, specjaliści ds. nauk o żywieniu, meteorolodzy, psycholodzy, farmakolodzy, agronomowie, statystycy i danolodzy. « powrót do artykułu
×
×
  • Dodaj nową pozycję...