Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36770
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    209

Odpowiedzi dodane przez KopalniaWiedzy.pl


  1. Wpływ człowieka na powierzchnię Ziemi jest oczywisty, widoczny od tysiącleci i dobrze zbadany. Co jednak z głębokimi partiami podpowierzchniowymi? Naukowcy z University of Arizona zbadali, jak człowiek wpływa na obszary planety położone na głębokości poniżej 500 metrów. O wynikach tych badań poinformowali na łamach pisma Earth's Future, wydawanego przez Amerykańską Unię Geologiczną.

    Porównywaliśmy tempo krążenia cieczy związanych z wydobyciem ropy naftowej i gazu z naturalnym krążeniem wody i wykazaliśmy, że ludzie mają olbrzymi wpływ na obieg płynów pod powierzchnią, mówi główna autorka badań, profesor Jennifer McIntosh z Wydziału Hydrologii i Nauk Atmosferycznych.

    Głębokie obszary pod powierzchnią nie istnieją w świadomości zdecydowanej większości ludzi. Tymczasem prognozuje się, że w przyszłości nasza aktywność z nimi związana będzie rosła. Być może będziemy pod powierzchnią przechowywali dwutlenek węgla wychwycony z atmosfery, będziemy w większym stopniu korzystali z energii geotermalnej, oczekiwany jest znaczy wzrost produkcji litu. Dlatego uczeni z Arizony uznali, że warto tę kwestię zbadać, a do współpracy zaprosili naukowców z Uniwersytetów Harvarda i Northwestern, kanadyjskiego University of Saskatchewan, Koreańskiego Instytutu Nauk o Ziemi i Zasobów Mineralnych oraz Uniwersytetu Linneusza w Szwecji.

    W procesie wydobycia ropy i gazu zawsze pojawia się solanka pochodząca z głębi Ziemi. To bardzo stara woda, sprzed milionów lat, w której wysoka zawartość soli pochodzi albo z parowania dawnych oceanów, albo z interakcji ze skałami. W celu zwiększenia efektywności wydobycia solankę tę miesza się z wodą ze źródeł bliskich powierzchni i wtłacza pod ziemię, by wydobyć więcej ropy i utrzymać ciśnienie w zbiorniku. Mamy tutaj do czynienia z cyklem wytwarzania płynu i wstrzykiwania go głęboko pod ziemię. Podobne techniki stosuje się podczas wydobywania litu czy pozyskiwania energii geotermalnej.

    Wykazaliśmy, że ilość i tempo wstrzykiwania i wypływania płynu podczas wydobycia ropy naftowej i gazu są większe niż procesy naturalne, mówi McIntosh. Naukowcy, korzystając z dostępnych danych o wydobyciu ropy i gazu oraz z badań nad przemieszczaniem płynów stwierdzili, że obecny obieg płynu ma większy zasięg i odbywa się szybciej niż proces naturalny. Przewidują, że zwiększenie produkcji litu na potrzeby samochodów elektrycznych czy przechowywanie CO2 jeszcze przyspieszą ten proces. A jego ślady będą widoczne w zapisie geologicznym.

    Profesor McIntosh dodaje, że działalność człowieka zmienia nie tylko obieg płynów pod powierzchnią, ale może wpływać też na żyjące pod ziemią mikroorganizmy. Środowisko, w którym żyją może zostać zmienione przez zmiany w składzie chemicznym wody, nowe mikroorganizmy mogą trafić z powierzchni w głąb planety i na odwrót. Na przykład proces szczelinowania hydraulicznego, w ramach którego wykorzystuje się wysokie ciśnienie wody do kruszenia skał pod ziemią może spowodować, że skały, w których dotychczas nie wykrywaliśmy mikroorganizmów zostaną przez nie skolonizowane.

    Zdaniem McIntosh tego typu badania powinny być kontynuowane. Obecnie więcej wiemy o powierzchni Marsa niż o wodzie, skałach i organizmach żywych znajdujących się głęboko pod naszymi stopami, stwierdza uczona.

    Warto w tym miejscu przypomnieć o badaniach, z których wynika, że działalność człowieka wpłynęła na ruch obrotowy Ziemi.


    « powrót do artykułu

  2. Po raz pierwszy astronomom udało się określić dokładne miejsce pochodzenia asteroidy. Bliska Ziemi asteroida 469219 Kamoʻoalewa (2016 HO3) została zauważona w 2016 roku. To quasi-księżyc naszej planety, niewielki obiekt o średnicy 45–58 metrów, którego peryhelium wynosi 0,89 jednostki astronomicznej. Z wcześniejszych obliczeń wynika, że krąży wokół naszej planety od niemal 100 lat i pozostanie jej towarzyszem przez kolejne stulecia. Teraz udało się zidentyfikować konkretny krater na Księżycu, z którego asteroida pochodzi.

    Spośród ponad 30 000 asteroid bliskich Ziemi (NEA) tylko 10 stanowią obiekty koorbitalne o półosi wielkiej długości około 1 j.a. Asteroida 469219 Kamoʻoalewa to przypadek szczególny, znajduje się w metastabilnym rezonansie ruchu średniego 1:1 z Ziemią. Dlatego też jest celem planowanej chińskiej misji Tianwen-2, która ma pobrać z niej próbki.

    Niedawno prowadzone obserwacje asteroidy wykazały, że jej powierzchnia ma cechy charakterystyczne dla zwietrzałej powierzchni Księżyca. To pokazało, że 2016 HO3 – w przeciwieństwie do zdecydowanej większości NEA – nie pochodzi z głównego pasa asteroid.

    Naukowcy z pekińskiego Uniwersytetu Tsinghua, we współpracy z kolegami z University of Arizona, University of British Columbia oraz Université Côte d’Azur wykonali obliczenia, które wykazały, że najbardziej prawdopodobnym miejscem pochodzenia tej asteroidy jest młody księżycowy krater o średnicy większej niż 10–20 kilometrów i wskazali na Giordano Bruno. Znajduje się on po niewidocznej stronie Księżyca, ma 22 kilometry średnicy i powstał 1–10 milionów lat temu. Uderzenie asteroidy, która go utworzyła, wyrzuciło w przestrzeń kosmiczną wiele materiału, który trafił na orbitę wokółsłoneczną. Część tego materiału mogła z czasem znaleźć się w rezonansie 1:1 z Ziemią i pozostaje w nim do dnia dzisiejszego. Niewykluczone, że w przyszłości znajdziemy więcej NEA pochodzących z Księżyca.

    A o tym, czy autorzy nowej pracy mają rację przekonamy się po zrealizowaniu misji Tianwen-2.


    « powrót do artykułu

  3. Po trzydziestu latach udało się zidentyfikować miecz znaleziony w 1994 roku w Walencji na ulicy Historiador Chabás. Natychmiast po odkryciu zabytek nazwano „Ekskaliburem”. Inaczej być nie mogło. Miecz znaleziono bowiem w grobie, był wbity w ziemię i spoczywał w pozycji pionowej. W oczywisty sposób kojarzył się więc z pierwowzorem z legend arturiańskich.

    Walencja (Valentia Edetanorum) została założona w 138 roku p.n.e. przez konsula Decimusa Juniusa Brutusa Callaicusa jako rzymska kolonia dla weteranów. „Valentia” pochodzi od rzymskiego słowa oznaczającego odwagę, a Edetanorum oznacza, że założono ją na terenie zamieszkanym przez iberyjskie plemię Edetanów. Osiemset lat po założeniu, w roku 714 Walencję podbili muzułmanie. Nazwali ją Balansiya. Miasto rozwijało się i w X wieku stało się regionalnym centrum handlowym. Na początku XI wieku na pozostających pod kontrolą muzułmanów terenach Półwyspu Iberyjskiego zaczęły powstawać niewielkie państewka, tajfa. Walczyły one między sobą i z chrześcijanami. W 1010 takie państewko, ogłoszone emiratem, powstało w Walencji i okolicach. Było targane walkami dynastycznymi i najróżniejszymi konfliktami.

    Niezwykły miecz został znaleziony w islamskim domu znajdującym się w pobliżu dawnego rzymskiego forum. Ostrze ma 46 centymetrów długości i lekko zakrzywia się w stronę czubka. Głowica dekorowana jest płytkami z brązu i jest lekko karbowana, by łatwiej było ją trzymać w dłoni. Broń nie posiada jednak jelca. I to właśnie jej nietypowa budowa była przyczyną, dla której klasyfikacja trwała przez trzy dekady. Umiarkowana długość ostrza i jego zakrzywienie są typowe dla broni wizygockiej, z kolei brak jelca wskazuje na broń jazdy z okresu kalifatu. Dopiero dokładne zbadanie osadów, z których miecz wydobyto pozwoliło na datowanie broni na X wiek, zatem na okres muzułmański.

    Datowanie wykonano, gdyż udało się zdobyć dofinansowanie z dorocznego grantu przyznawanego przez Radę Miasta Walencja. Grant na lata 2023–2024 w całości przeznaczono na analizę obiektów z metalu, więc naukowcy zajmujący się „Ekskaliburem” mogli o niego wystąpić.

    To jedyny muzułmański miecz znaleziony na terenie Walencji. Dotychczas znaliśmy tylko jedną podobną broń – miecz odkryty w ruinach Medina Azahara. Był to wspaniały kompleks pałacowy i otaczające go miasto w pobliżu Kordoby. Ich budowę rozpoczął w 936 roku jeden z najwybitniejszych władców, kalif Abd-ar Raman III, który z czasem przeniósł tam swój dwór. Około 70 lat później pałac i miasto zostały splądrowane w wyniku wojny domowej, a zniszczenia dopełnili berberyjscy najemnicy.


    « powrót do artykułu

  4. Cukrzyca typu 2 (T2D) jest przewlekłą chorobą z zaburzeniami regulacji metabolicznej, w szczególności nieprawidłowym metabolizmem glukozy, któremu towarzyszą powikłania, w tym choroby sercowo-naczyniowe, retinopatia, nefropatia, neuropatia, owrzodzenia nóg i zgorzel.

    Ze statystyk wynika że w 2013 r. 382 miliony ludzi chorowało na cukrzycę na całym świecie, a prognozuje się, że do 2035 r. Liczba ta wyniesie 592 mln

    Identyfikacja modyfikowalnych czynników stylu życia, w tym dietetycznych, które zmniejszają częstość występowania T2D, jest istotnym obszarem badań. Jednym z interesujących czynników dietetycznych jest spożywanie żywności bogatej w polifenole. Sugeruje się, że polifenole dietetyczne obniżają ryzyko T2D.

    POLIFENOLE

    Polifenole są dużą i niejednorodną grupą fitochemikaliów zawierających pierścienie fenolowe. Kilkaset różnych polifenoli znajduje się w żywności pochodzenia roślinnego, w tym warzywach (szczególnie brokułach, cebuli i kapuście), owocach (winogrona, gruszki, jabłka, wiśnie i różne jagody zawierają do 200–300 mg polifenoli na 100 g świeżej masy). Duże ilości polifenoli zawierają również rośliny strączkowe (soja), zboża, napoje pochodzenia roślinnego i czekolada. W filiżance kawy lub herbaty lub lampce czerwonego wina zidentyfikowano około 100 mg polifenoli. Polifenole dzielą się na flawonoidy, kwasy fenolowe, stylbeny i lignany. Flawonoidy obejmują flawony, flawonole, flawanole, flawanony, izoflawony i antocyjany. Najczęstsze kwasy fenolowe to kwas kawowy (obecny w wielu owocach i warzywach, najczęściej estryfikowany kwasem chinowym jak w kwasie chlorogenowym, który jest głównym związkiem fenolowym w kawie) i kwas ferulowy obecny w zbożach. Najlepiej badanym stylbenem jest resweratrol w winogronach, produktach winogronowych i winie czerwonym. Najbogatszym źródłem lignanów jest siemię lniane (3,7 g/ kg suchej masy). Zaś mniejszymi źródłami są zboża, soczewica, owoce (gruszki, śliwki) i warzywa (czosnek, szparagi, marchew).

    MECHANIZMY DZIAŁANIA POLIFENOLI W PREWENCJI CUKRZYCY
    Trawienie węglowodanów i wchłanianie glukozy w jelicie.
    Hamowanie aktywności α-amylazy i α-glukozydazy (enzymów biorących udział w trawieniu węglowodanów) in vitro wykazały polifenole zawarte w owocach (truskawki, maliny, jagody i porzeczki czarne), warzywach (dynia, fasola, kukurydza i bakłażan), czarnym ryżu, roślinach strączkowych, zielonej i czarnej herbacie oraz czerwonym winie.

    Flora bakteryjna jelita

    Metabolity polifenoli pochodzące z metabolizmu wątroby mogą powodować działanie przeciwcukrzycowe. Na wchłanianie polifenoli może mieć wpływ dawka, wielkość związku fenolowego, wcześniejsza dieta, płeć i różnice w populacjach drobnoustrojów jelitowych. Zwiększony poziom bakterii Bifidobacteria w kale związany jest z lepszą tolerancją glukozy i zmniejszonymi markerami stanu zapalnego. Badania wykazały prebiotyczną rolę polifenoli w zwiększeniu populacji Bifidobacteria-spożywanie 494 mg flawanoli kakaowych przez cztery tygodnie znacznie zwiększyło wzrost Lactobacillus i Bifidobacterium w stosunku do napoju zawierającego tylko 29 mg flawanoli.

    Funkcja komórek beta trzustki

    Wykazano, że indukowany otyłością stres oksydacyjny w mitochondriach może częściowo odpowiadać za insulinooporność. Podwyższone prozapalne cytokiny mogą zmieniać metaboliczne systemy kontroli homeostatycznej prowadzące do cukrzycy typu 2. Z badań wynika, że procyjanidyny z pestek winogron hamowały wytwarzanie cząsteczek prozapalnych, u szczurów ośmiotygodniowa suplementacja w diecie wysokotłuszczowej bogatym w antocyjaninę 4% jagodowym proszkiem poprawiła wrażliwość na insulinę całego ciała. Kwercetyna również wykazywała działanie przeciwzapalne.

    Istnieje kilka badań klinicznych, które badają wpływ określonych polifenoli lub produktów spożywczych bogatych w polifenole na zmniejszanie ryzyka insulinooporności.

    Biorąc pod uwagę mieszane wyniki nadal nie jest jasne, czy bogata w polifenole zielona herbata ma działanie przeciwcukrzycowe.

    Metaanalizy wykazały, że czekolada lub kakao obniżały insulinę na czczo i insulinę po obciążeniu glukozą oraz poprawiły insulinooporność. Nie stwierdzono wpływu na stężenie glukozy na czczo i hemoglobiny glikowanej. Dzienne spożycie 25 g ciemnej czekolady przez osiem tygodni nie poprawiło poziomu glukozy, insuliny i hemoglobiny glikowanej na czczo u osób z nadciśnieniem cukrzycowym. Biorąc pod uwagę sprzeczne wyniki interwencji, obecne dane są niewystarczające, aby zalecać czekoladę i kakao do kontroli glikemii.

    Spożycie cynamonu może mieć działanie obniżające glikemię, ale wymagane są dalsze badania obejmujące różne rodzaje i ilości cynamonu oraz typy badanych.

    Kolejnym badanym produktem były winogrona. Badanie na mężczyznach z co najmniej jednym składnikiem zespołu metabolicznego, spożywających 822 mg polifenoli przez 16 tygodni wykazało znaczne zmniejszenie poziomu insuliny po posiłku i glikemii na czczo w porównaniu z poziomem wyjściowym, ale nie było istotnych różnic w poziomie insuliny na czczo, glukozy po posiłku, hemoglobiny glikowanej i HOMA – IR między nimi i grupą kontrolną.
    Podsumowując, nie ma przekonujących dowodów na wpływ polifenoli z winogron na homeostazę glukozy.

    W randomizowanym, kontrolowanym badaniu czerwone wino znacząco poprawiło wrażliwość na insulinę, profil lipidowy i funkcję śródbłonka w porównaniu z innymi napojami alkoholowymi (piwo i wódka), jednak nie ma wielu dowodów na wpływ polifenoli winnych na poziom glukozy i insuliny.

    Dieta śródziemnomorska bogata w oliwę z pierwszego tłoczenia wykazała 40% zmniejszenie ryzyka cukrzycy typu 2 w porównaniu z grupa kontrolna. Dieta ta poprawiła też metabolizm glukozy i zmniejszyła masę ciała u osób z cukrzycą typu 2. Nie zaobserwowano wpływu zbóż na  glukozę, insulinę, stany zapalne. Podobnie w przypadku warzyw. Większość badań nie wykazała wpływu warzyw na insulinooporność lub ryzyko wystąpienia cukrzycy typu 2, jedynie wysokie dzienne spożycie zielonych warzyw liściastych było odwrotnie związane z ryzykiem jej wystąpienia, oraz wysokie spożycie jagód wiązało się z 35 % niższym ryzykiem zachorowania.

    Badania in vitro i in vivo wykazały, że dietetyczne związki polifenolowe poprawiły homeostazę glukozy poprzez potencjalne liczne mechanizmy działania w jelicie, wątrobie, adipocytach mięśniowych i komórkach β trzustki, a także poprzez działanie prebiotyczne w przewodzie pokarmowym. Ogólnie rzecz biorąc, większość badań epidemiologicznych wykazała, że polifenole dietetyczne były związane z niższym ryzykiem T2D, ale związek ten nie był całkowicie spójny. Jagody i cynamon mogą być obiecującymi kandydatami do zapobiegania i leczenia cukrzycy. Przeprowadzono jedynie ograniczone badania kliniczne dietetycznych polifenoli w odniesieniu do homeostazy glukozy i insuliny, które nie były tak skuteczne jak badania in vitro i in vivo. Mieszane wyniki mogą być związane ze słabymi analizami statystycznymi, małą wielkością próby i brakiem dynamicznych pomiarów metabolizmu glukozy.


    « powrót do artykułu

  5. Diagnostyka genetyczna ma na celu poszukiwanie wariantów genetycznych będących przyczyną zaburzeń fenotypowych pacjenta. Każdy pojedynczy genom ludzki zawiera tysiące zmian genetycznych. Tylko nieliczne z nich prowadzą do zmian fenotypowych. Dlatego tak ważna jest ocena prognostyczna ich konsekwencji biologicznych oraz klinicznych. Błędna interpretacja znaczenia wykrytego wariantu może spowodować poważne konsekwencje dla pacjenta oraz jego rodziny. Liczba i różnorodność diagnozowanych wariantów sprawia, że ocena ich konsekwencji funkcjonalnych wymaga wsparcia przez wieloelementową analizę obliczeniową. Obecnie dostępnych jest wiele narzędzi predykcji in silico. Wykorzystują one różnorodne modele obliczeniowe oraz źródła danych genetycznych.

    Genom człowieka jest to całkowita informacja genetyczna zawarta w zestawie 23 par chromosomów obecnych w jądrze komórkowym (genom jądrowy) oraz w mitochondriach (genom mitochondrialny) [1]. Haploidalny ludzki genom jądrowy ma długość około 3 miliardów par zasad i koduje około 30 000 genów [2]. Genom zbudowany jest z kwasu dezoksyrybonukleinowego (DNA). Składa się z części kodujących białka tzw. eksonów obejmujących

    Dla przetrwania oraz prawidłowego rozrodu wymagana jest stabilność genetyczna. Jest ona zapewniana przez proces replikacji oraz mechanizmy naprawy wychwytujące i korygujące błędy wynikające z pomyłek aparatu replikacyjnego oraz z przypadkowych uszkodzeń DNA. Czasem jednak mechanizmy naprawy okazują się zawodne i wtedy zamiast zmiany przejściowej dochodzi do utrwalenia błędu. Takie trwałe zmiany, które mogą lecz nie muszą, prowadzić do poważnych konsekwencji, nazywamy mutacjami. Efekty wpływu mutacji na komórkę, organizm zależą od wielu czynników m.in. rodzaju wariantu, miejsca powstania [4]. Mutacje zgodnie z definicją, są to wszelkie trwałe zmiany w sekwencji nukleotydowej o częstości populacyjnej poniżej 1%. Termin polimorfizm jest zdefiniowany jako wariant występujący w populacji z częstością 1% lub większą. Warianty genetyczne można sklasyfikować na podstawie wielu różnych parametrów m.in.: ze względu na zakres jaki obejmują, mechanizm powstawania, miejsca powstania lub konsekwencje jakie wywołują [5].

    Wśród mutacji genowych dodatkowo wyróżnić można mutacje punktowe, które dotyczą zmian pojedynczych nukleotydów.

    Dynamiczny rozwój diagnostyki molekularnej wymusił konieczność wprowadzenia ujednoliconego oraz jednoznacznego zapisu wariantów sekwencji nukleotydowej. Na podstawie zestawu standardowych kryteriów powstała międzynarodowa, referencyjna nomenklatura wariantów genetycznych. Za utrzymywanie i wersjonowanie nomenklatury odpowiedzialna jest organizacja Human Genome Variation Society (HGVS). Opracowane wytyczne umożliwiają efektywne współdzielenie oraz użytkowanie informacji genomowych. Wszystkie laboratoria genetyczne zobligowane są do zapisu wyniku badania genetycznego zgodnie z wytycznymi HGVS [5,6]. Przyjęte rekomendacje dostępne są do publicznej wiadomości na stronie internetowej www.varnomen.hgvs.org [7].
    Celem diagnostyki genetycznej jest wsparcie oceny klinicznej oraz podejmowanych decyzji medycznych. Błędna interpretacja znaczenia wykrytego wariantu może spowodować poważne konsekwencje dla pacjenta oraz błędną stratyfikację ryzyka dla członków jego rodziny. W 2013 r. organizacja American College of Medical Genetics and Genomics (ACMG) zwołała specjalną grupę roboczą złożoną z przedstawicieli ACMG, American Association for Molecular Pathology (AMP) oraz College of American Pathologists (CAP). Grupa ta składała się z klinicystów oraz dyrektorów laboratoriów klinicznych. Celem było opracowanie międzynarodowych wytycznych dotyczących klasyfikacji znaczenia wariantów genetycznych wykrywanych w analizach sekwencjonowania genomu ludzkiego. W 2015 roku został opublikowany specjalny raport przedstawiający szczegółowe rekomendacje dotyczące testów genetycznych wykonywanych w laboratoriach klinicznych. Warianty identyfikowane w chorobach monogenowych, dziedziczonych zgodnie z prawami Mendla zaklasyfikowano do pięciu kategorii:
    ● wariant patogenny (ang. pathogenic),
    ● wariant potencjalnie patogenny (ang. likely pathogenic),
    ● wariant o niepewnym znaczeniu (ang. uncertain significance),
    ● wariant potencjalnie łagodny (ang. likely benign),
    ● wariant łagodny (ang. benign) [6].

    “In silico” jest to termin naukowy określający sposób wykonania czynności, badania, testu. Oznacza, że analiza została przeprowadzona za pomocą komputera i urządzeń informatycznych. Nazwa powstała analogicznie do terminów in vitro i in vivo [10]. Diagnostyka genetyczna ma na celu poszukiwanie wariantów genetycznych będących przyczyną zaburzeń fenotypowych pacjenta. Wykorzystuje analizę asocjacji polegającą na łączeniu określonego wariantu z wystąpieniem danej cechy [11]. Analiza bioinformatyczna wyniku pacjenta składa się z wielu etapów. Obejmuje m.in. następujące analizy in silico:
    ● porównywanie sekwencji badanej z sekwencją referencyjną - sekwencje referencyjne dostępne są w wielu przeglądarkach genomowych, do najczęściej stosowanych należą m.in. GenBank, LRG oraz Ensembl,
    ● przeszukiwanie baz danych populacyjnych, gromadzących informacje o częstościach wariantów np.1000 Genomes,, Exome Aggregation Consortium (ExAC), Exome Variant Server,
    ● przeszukiwanie biomedycznych baz danych, gromadzących informacje o klinicznym znaczeniu wariantów, powiązaniu fenotypowym, zaburzeniach genetycznych m.in. ClinVar, OMIM, Human Gene Mutation Database (HGMD)
    ● przeszukiwaniu biomedycznych publikacji naukowych,
    ● interpretację wpływu wykrytego wariantów na genom oraz kodowane białko z zastosowaniem programów predykcyjnych [6,7,8].

    W chwili obecnej dostępnych jest wiele narzędzi predykcji in silico, a analiza patogenności wariantów genetycznych jest kluczowa w skutecznej diagnostyce genetycznej i następującej po niej terapii.

    Piśmiennictwo

    [1] Brown, T. A.: The Human Genome. Oxford: Wiley-Liss 2002

    [2] National Human Genome Research Institute (NHGRI). Human Genome Project Completion: Frequently Asked Questions. https://www.genome.gov

    [3] Friedman J.M., Dill F.J. , Hayden M.R., McGillivaray B.C.: Genetyka. Wydawnictwo medyczne Urban & Partner, Wydanie I polskie pod redakcją Limona J., Wrocław 1996

    [4] Alberts B., Bray D., Johnson A., Lewis J., Raff M., Roberts K., Walter P.: Podstawy biologii komórki. Wprowadzenie do biologii molekularnej. Wydawnictwo Naukowe PWN, przekład pod redakcją Michejdy J. i Augustyniaka J., Warszawa 1999

    [5] Claustres M., Kozich V., Dequeker E., Fowler B., Hehir-Kwa J.Y., Miller K., Oosterwijk C., Peterlin B., van Ravenswaaij-Arts C., Zimmermann U., Zuffardi O., Hastings R.J. and David E., Barton D.E., on behalf of the ESHG Quality committee: Recommendations for reporting results of diagnostic genetic testing (biochemical, cytogenetic and molecular genetic). European Journal of Human Genetics 2014; 22

    [6] Richards S., Aziz N., Bale S., Bick D., Das S., Gastier-Foster J., Grody W.W., Hegde M., Lyon E., Spector E., Voelkerding K., Rehm H.L., on behalf of the ACMG Laboratory Quality Assurance Committee: Standards and Guidelines for the Interpretation of Sequence Variants: A Joint Consensus Recommendation of the American College of Medical Genetics and Genomics and the Association for Molecular Pathology. Genetics in Medicine 2015; 17

    [7] https://varnomen.hgvs.org

    [8] den Dunnen J.T., Dalgleish R. , Maglott D.R., Hart R.K., Greenblatt M.S., McGowan-Jordan J., Roux A.F., Smith T., Antonarakis S.E., Taschner P.E.: HGVS Recommendations for the Description of Sequence Variants. Hum Mutat. 2016; 37(6)

    [9] Kim Y.E., Ki C.S., Jang M.A.: Challenges and Considerations in Sequence Variant Interpretation for Mendelian Disorders. Ann Lab Med 2019; 39(5)

    [10] Colquitt R.B., Colquhoun D.A., Thiele R.H.: In silico modelling of physiologic systems. Best Practice & Research Clinical Anaesthesiology 2011; 25

    [11] Słomski R.: Analiza DNA - Teoria i Praktyka. Wydawnictwo Uniwersytetu Przyrodniczego w Poznaniu, Poznań 2008


    « powrót do artykułu

  6. Koagulologia jest dziedziną diagnostyki laboratoryjnej, która służy ocenie zaburzeń krzepnięcia krwi, czyli weryfikuje zdolność do zatrzymania krwawień, ale także obrazuje efekt nadmiernego aktywowania krzepnięcia lub za słabe jego hamowanie. W pierwszym przypadku mamy do czynienia z niepohamowanym, obfitym krwawieniem, natomiast w drugim obserwujemy możliwość powstawania zatorów, które mogą powodować udary bądź zawały. Badania te służą również do monitorowania działania i stężeń niektórych leków.

    Krzepnięcie krwi jest naturalnym, fizjologicznym procesem, które zapobiega jej utracie w wyniku przerwania ciągłości naczyń krwionośnych. Jest mechanizmem obronnym organizmu w przypadku przerwania ciągłości tkanek. Najprostszy mechanizm to przejście fibrynogenu, który krąży w osoczu, w przestrzenną sieć fibryny(skrzep) pod wpływem trombiny.

    Hemostaza to zespół procesów które przyczyniają się do utrzymywania krwi w łożysku naczyniowym w stanie płynnym a w przypadku jej zaburzenia dochodzi do aktywowania czynników naprawczych. Czynnik, które przyczyniają się do prawidłowej hemostazy można podzielić następująco:

    wydzielanie przez komórki śródbłonka prostacykliny (PGI2), która hamuje agregację płytek i powoduje rozszerzenie naczynia; ujemne ładunki elektryczne śródbłonka i płytek krwi, co powoduje, że komórki śródbłonka i nieaktywne płytki krwi odpychają się nawzajem; czynniki krzepnięcia krwi w osoczu są nieczynnymi prekursorami, które pod wpływem innych czynników ulegają aktywacji obecność kwasu 13-hydroksyoktadekadienowego obecność inhibitorów; najważniejsze z nich to: antytrombina (AT), układ antykoagulacyjny białka C i inhibitor drogi zależnej od czynnika tkankowego.

    Najważniejsze inhibitory występujące w osoczu:

    Antytrombina(AT) AT jest glikoproteiną syntetyzowaną w wątrobie, komórkach śródbłonka naczyń i prawdopodobnie w megakariocytach. Aktywność antykoagulacyjna wzrasta 1000-krotnie w obecności heparyny. W warunkach fizjologii siarczan heparanu zlokalizowany na powierzchni komórek śródbłonka naczyń odpowiada za unieczynnienie antytrombiny. Jest głównym inhibitorem trombiny (czynnika IIa) i czynnika Xa, ale unieczynnia też czynniki XIIa, XIa, plazminę i kalikreinę.

    Białko C – jest witamino-K zależną glikoproteiną, produkowaną w wątrobie. Najważniejszym fizjologicznym aktywatorem białka C jest trombina. Kofaktorem tej reakcji jest zlokalizowana na powierzchni śródbłonka trombomodulina.

    Hemostaze dydaktycznie i umownie dzielimy na pierwotną, prowadzącą do powstawania skrzepu płytkowego i wtórną-osoczową, prowadzącą do powstawania fibryny.

    Hemostaza pierwotna

    Komórki śródbłonka prawidłowe są niereaktywne względem płytek krwi. Kiedy nastąpi ich uszkodzenie wyzwalają się procesy, które służą przede wszystkim zmianom morfotycznym w płytkach, a co za tym idzie umożliwiają im adhezję oraz agregację.

    Na hemostazę pierwotną składają się następujące procesy:

    obkurczanie naczynia na skutek uszkodzenia jego ściany i wydzielania m.in. serotoniny, adhezja krwinek płytkowych do odsłoniętych elementów podśródbłonka, agregacja odwracalna krwinek płytkowych, reakcja uwalniania, agregacja nieodwracalna krwinek płytkowych.

    W skrócie hemostaza płytkowa to: aktywacja, adhezja, agregacja oraz uwalnianie.

    Hemostaza osoczowa

    Proces związany z białkami występującymi w osoczu oraz białkami związanymi z błoną komórkową tkanek. Ma na celu wytworzenie fibryny. Wyróżnia się dwa szlaki, które są ze sobą powiązane: szlak zewnątrzpochodny i wewnątrzpochodny. Jest to kasaka enzymów. Oba szlaki przebiegają z wytworzeniem czynnika Xa i posiadają wspólną drogę końcową.

    Szlak wewnątrzpochodny jest szlakiem zależnym od kontaktu. Aktywowany zostaje poprzez kontakt czynnika XII z kalikreinami, kolagenem i kininogenami. Prowadzi to do powstania czynnika XIIa, co prowadzi do reakcji kaskadowej. Maksymalna aktywność czynnika XII występuje w obecności kalikreiny i wielkocząsteczkowego kininogenu. Kalikreina powstaje w wyniku proteolizy prekalikreiny przez czynnik XII. Czynnik X może zostać aktywowany przez czynnik VIIa.

    Szlak zewnątrzpochodny jest szlakiem zależnym od czynnika tkankowego. Jest zapoczątkowany przez aktywację czynnika VII do VIIa w obecności tromboplastyny tkankowej i jonów wapnia. Czynnik VIIa aktywuje czynnik X. Tromboplastyna tkankowa jest uwalniana z uszkodzonych tkanek. Szlak zewnątrzpochodny przebiega szybciej od wewnątrzpochodnego, mimo tego że wszystko dzieje się w jednym czasie.

    Trombina powoduje odczepienie dwóch par fibrynopeptydów od z fibrynogenu, który określa się jako monomer fibryny. Monomery fibryny ulegają nieenzymatycznej polimeryzacji, ostatecznie tworząc przestrzenny polimer fibryny labilnej (Ia). Następnie pod wpływem czynnika XIIIa ulega on przekształceniu do bardziej stabilnego i wytrzymałego włóknika (Ib). Po wytworzeniu skrzepu dochodzi do jego retrakcji.

    Do najważniejszych badań biochemicznych wchodzących w skład koagulogramu obrazującego działanie hemostazy zaliczamy:

    PT – czas protrombinowy, inaczej zwany INR, określa działanie szlaku zewnątrzpochodnego APTT – czas koalinowo-kefalinowy, określa sprawność działania szlaku wewnątrzpochodnego Stężenie fibrynogenu Czas trombinowy Czas krwawienia Stężenie d-dimerów Aktywność antytrombiny Aktywność innych osoczowych czynników krzepnięcia.

    APTT:

    norma: 28-34 sek.

    Wartość powyżej normy obserwujemy przy : wrodzonym niedoborze czynnika VIII (hemofilia A), IX (hemofilia B), XI (hemofilia C), afibrynogenemii, hipo- i dysfibrynogenemia, niektóre postaci choroby von Willebranda oraz w obecności inhibitorów krzepnięcia (heparyna, produkty degradacji fibrynogenu, krążące antykoagulanty)
    Wartość poniżej normy sugeruje nadkrzepliwość lub błędy techniczne w pobieraniu krwi(skrzep w probówce z osoczem).

    PT:

    norma: 13-17 sek. lub 0,9-1,3 INR (2-4 INR zakres terapeutyczny) lub 80-120 proc. (wskaźnik Quicka)

    Wartość powyżej normy obserwujemy w: wrodzonym niedoborze czynników II, V, VII, X, przewlekłych chorobach miąższu wątroby, niedoborze witaminy K, rozsianym wykrzepianiu wewnątrznaczyniowym (DIC), białaczce, mocznicy, chorobie Addisona-Biermera
    Wartość poniżej normy może wskazywać m.in. na zakrzepicę i trombofilię,    

    TT:

    norma: ok. 15-20 sek.

    Wartość powyżej normy obserwujemy w: zespole rozsianego wykrzepiania śródnaczyniowego, marskości i w innych chorobach wątroby, przy leczeniu inhibiotorami trombiny (heparyna)

    Fibrynogen:

    norma:1,8 - 3,5 g/L

    Wartość powyżej normy sugerują choroby nerek (zespół nerczycowy, kłębuszkowe zapalenie nerek, zespół hemolityczno- mocznicowy), zawał serca i udar mózgu, choroby nowotworowe, plamica zakrzepowa małopłytkowa, kolagenozy, stosowaniu niektórych leków, w tym doustnych środków antykoncepcyjnych

    Fizjologicznie stężenie fibrynogenu wzrasta podczas miesiączki i w okresie ciąży.

    Wartość poniżej normy obserwujemy w: wrodzonych niedoborach fibrynogenu, chorobach wątroby (piorunujące zapalenie wątroby, marskość, martwica wątroby, śpiączka wątrobowa), zespole rozsianego wykrzepiania śródnaczyniowego (DIC), skazach fibrynolitycznych (pokrwotoczne, pourazowe, pooparzeniowe, ostra białaczka promielocytowa, nowotwory)

    Antytrombina AT:

    norma: aktywność: 75-150 %

    Wartość powyżej normy obserwujemy przy: wirusowym zapaleniu wątroby, niedoborze witaminy K, leczeniu sterydami anabolicznymi. Pojawia się także u pacjentów po przeszczepie nerki
    Wartość poniżej normy: m.in. uszkodzenie wątroby,  niewydolność nerek, choroba nowotworowa, zakrzepica naczyń, zatorowość płucna.

    Normy mogą się różnić w zależności od laboratorium w których wykonuje się badanie!

    Koagulogram wykonuje się przy każdorazowej operacji bądź zabiegu. Wskazaniami do jego wykonania są także:

    Obfite miesiączki Nawracając krwawienia z nosa, dziąseł, układu pokarmowego Długotrwałe krwawienia przy zranieniach Wybroczyny na skórze bądź błonach śluzowych Tendencja do siniaków, w szczególności przy niewielkich nawet urazach U kobiet rezygnujących z doustnej antykoncepcji Monitorowanie leczenia lekami szczególnie przeciwzakrzepowymi.

    Procedura pobrania krwi do badań jest standardowa. Pacjent nie musi być na czczo ale jest to zalecane, jak przy większości badań. Krew pobiera się z żyły, najczęściej łokciowej, do specjalnej probówki, która zawiera antykoagulant.

    Bibliografia :

    Mała encyklopedia medycyny. Tadeusz Różniatowski (red.). T. I, A-O. Warszawa: PWN, 1982, s. 558–559. ISBN 83-01-00200-X. Koagulologia. W: Witold Doroszewski: Słownik języka polskiego. PWN, 1958–1969. Ernst Mutschler: Farmakologia i toksykologia. Wrocław: MedPharm Polska, 2010, s. 529–530. ISBN 978-83-60466-81-0. Claude A. Villee: Biologia. Wydanie IX. Państwowe Wydawnictwo Rolnicze i Leśne, Warszawa 1990. Dział: Budowa i koordynacja czynności organizmu. Podrozdział: Krzepnięcie krwi. s. 390–391. ISBN 83-09-00748-5. Władysław Traczyk: Fizjologia człowieka w zarysie. Warszawa: PZWL, 2002. ISBN 83-200-2694-6. Choroby wewnętrzne. Przyczyny, rozpoznanie i leczenie, tom I, Andrzej Szczeklik (red.), Jerzy Alkiewicz, Kraków: Wydawnictwo Medycyna Praktyczna, 2005, s. 30–31, ISBN 83-7430-031-0, OCLC 830805120. Franciszek Dubert, Ryszard Kozik, Stanisław Krawczyk, Adam Kula, Maria Marko-Worłowska, Władysław Zamachowski: Biologia na czasie 2. Podręcznik dla liceum ogólnokształcącego i technikum. Zakres rozszerzony. Do nowej podstawy programowej. Rok dopuszczenia: 2013. Numer ewidencyjny w wykazie MEN: 564/2/2013. s. 130. ISBN 978-83-267-1805-2. J.M. Conly, K. Stein. The production of menaquinones (vitamin K2) by intestinal bacteria and their role in maintaining coagulation homeostasis. „Prog Food Nutr Sci”. 16 (4). s. 307–343. PMID: 1492156. Patomorfologia kliniczna. Podręcznik dla studentów medycyny. Kruś Stefan, Skrzypek-Fakhour Ewa (red.). Warszawa: Państwowy Zakład Wydawnictw Lekarskich, 2005. ISBN 83-200-3111-7. Krzepnięcie krwi. W: Claude A. Villee: Biologia. Wyd. IX. Warszawa: Państwowe Wydawnictwo Rolnicze i Leśne, 1990, s. 390–391. ISBN 83-09-00748-5. Stanisław Konturek: Fizjologia człowieka. Wrocław: ELSEVIER URBAN & PARTNER, 2007. ISBN 978-83-89581-93-8. Diagnostyka laboratoryjna, pod. red. Szutowicz A., Raszei-Specht A., wyd. Gdański Uniwersytet Medyczny, Gdańsk 2009.
    « powrót do artykułu

  7. Samochody przeszły długą drogę od momentu wynalezienia pierwszego pojazdu napędzanego silnikiem spalinowym. Na przestrzeni lat ewoluowały one pod względem technologicznym, designu oraz funkcjonalności. Poznaj historię ewolucji samochodów!

    Początki motoryzacji – pierwsze pojazdy samobieżne

    Współczesne samochody są nowoczesne i naszpikowane zaawansowanymi technologiami. Aż trudno uwierzyć, że prototypy pojazdów samobieżnych napędzane były siłą wiatru. Projekt takiej maszyny był włoski inżynier Roberto Valturio, tematem interesował się także Leonardo da Vinci. Żaglowozy pojawiły się Niderlandach – można je było zobaczyć na tamtejszych drogach już w na początku XVII wieku.

    Jednak pierwszy pojazd samobieżny, który był zdolny do przewozu osób i dał zalążek współczesnej motoryzacji, pojawił się w roku 1765. Jego konstruktorem był francuski inżynier Nicolas Josepha Cugnot. Maszyna powstała na potrzeby armii i miała pełnić funkcję ciągnika artyleryjskiego.

    W ten sposób rozpoczęła się przygoda, która trwa do dzisiaj. Branża samochodowa budzi duże zainteresowanie i generuje ogromne zyski. Wynalazcy sprzed stuleci na pewno nie spodziewali się, jak może ewoluować ich pomysł. Dzięki nim każdy z nas może swobodnie przemieszczać się z miejsca na miejsce. Oczywiście warunkiem jest spełnienie wymogów – posiadanie prawa jazdy, wykonywanie corocznych przeglądów oraz wykupienie obowiązkowej polisy. Aktualne ceny znajdziesz tutaj – kalkulator oc HDI.

    Tak powstawały konstrukcje współczesnych samochodów

    Jak wspomniano wcześniej, pierwsze próby skonstruowania samochodu we współczesnym rozumieniu sięgają XVIII wieku, kiedy to powstały pojazdy napędzane silnikiem parowym. Jednak prawdziwy przełom nastąpił w 1886 roku, gdy Carl Benz opatentował pierwszy pojazd napędzany silnikiem spalinowym. Był to trójkołowy pojazd nazwany Benz Patent-Motorwagen Nummer 1, który uznawany jest za protoplastę współczesnych samochodów. W 2011 roku akt patentowy został wpisany na listę Pamięć Świata. Jest to projekt pod patronatem UNESCO, który ma chronić najbardziej wartościowe dla ludzkości dokumenty.

    W kolejnych latach pojawiały się nowe konstrukcje, takie jak pierwszy seryjnie produkowany samochód Benz Velo z 1894 roku (maksymalna prędkość wynosiła zawrotne 30 km/h) czy Ford Model T, który zrewolucjonizował przemysł motoryzacyjny dzięki wprowadzeniu taśmowej produkcji. Samochody z początku XX wieku charakteryzowały się prostą budową, otwartym nadwoziem i niewielkimi silnikami.

    Rozwój technologii i designu w branży motoryzacyjnej

    Wraz z upływem czasu samochody stawały się coraz bardziej zaawansowane technologicznie. W latach 20. i 30. XX wieku pojawiły się pierwsze pojazdy z zamkniętym nadwoziem, elektrycznym rozrusznikiem czy hydraulicznymi hamulcami. Zaczęto także zwracać uwagę na design, tworząc bardziej opływowe i eleganckie karoserie.

    Lata 50., 60. i 70. to okres rozkwitu motoryzacji, szczególnie w Stanach Zjednoczonych. Powstawały duże, mocne samochody z silnikami V8, bogato wyposażone i efektownie stylizowane. Były to auta typu muscle car i pony car – miały masywną sylwetkę i dużą moc. W Europie dominowały mniejsze, ekonomiczne pojazdy dostosowane do węższych ulic i wyższych cen paliwa.
    Samochody współczesne

    Obecnie samochody to zaawansowane technologicznie maszyny wyposażone w elektroniczne systemy wspomagające kierowcę, zapewniające wysoki poziom bezpieczeństwa i komfortu. Coraz większą rolę odgrywają kwestie ekologii, stąd dynamiczny rozwój pojazdów z napędem hybrydowym i elektrycznym.

    Współczesne trendy w designie samochodów to m.in. dążenie do aerodynamicznej sylwetki, LED-owe oświetlenie, duże alufelgi i muskularne proporcje nadwozia. Jednocześnie producenci starają się wyróżnić swoje modele charakterystycznym wyglądem zgodnym z filozofią marki.

    Innowacje i kierunki rozwoju

    Branża motoryzacyjna nieustannie poszukuje innowacyjnych rozwiązań, które mają uczynić samochody bardziej przyjaznymi dla środowiska, bezpiecznymi i funkcjonalnymi. Kluczowe kierunki rozwoju to elektromobilność, autonomiczne systemy jazdy czy komunikacja między pojazdami. Coraz większe znaczenie zyskują także usługi mobilności, takie jak car-sharing czy abonamenty na samochody. Zmienia się podejście do własności pojazdu, szczególnie wśród młodszych pokoleń, które chętniej korzystają z elastycznych form użytkowania aut.
    Nadal jednak samochody pozostają wyznacznikami statusu – mimo swojej powszechnej dostępności.

    Ewolucja pojazdów – niezwykła podróż przez historię

    Historia samochodu to fascynująca opowieść o ludzkiej pomysłowości, innowacyjności i dążeniu do ciągłego ulepszania środków transportu. Od pierwszych prymitywnych pojazdów napędzanych silnikiem parowym, przez kultowe modele będące ikonami swoich epok, aż po zaawansowane technologicznie współczesne auta – samochody przeszły ogromną ewolucję.

    Dziś stoją one przed nowymi wyzwaniami związanymi z ochroną środowiska, bezpieczeństwem i zmieniającymi się potrzebami użytkowników. Jednak jedno pozostaje niezmienne – samochody nadal są symbolem wolności, niezależności i realizacji marzeń o podróżowaniu, odgrywając istotną rolę w życiu milionów ludzi na całym świecie.


    « powrót do artykułu

  8. Geolodzy z MIT oraz Uniwersytetu Oksfordzkiego odkryli najstarsze skały ze śladami ziemskiego pola magnetycznego. Dziewicze skały, które zachowały swoje właściwości od czasu powstania, pochodzą sprzed 3,7 miliarda lat. Widać w nich ślady ziemskiego pola magnetycznego o natężeniu co najmniej 15 mikrotesli (µT). To najstarsze znane dowody na istnienie pola magnetycznego chroniącego planetę. Odkrycie oznacza, że pole magnetyczne Ziemi jest starsze o setki milionów lat niż sądzono i może mieć duże znaczenie dla badań nad początkami życia.

    Istnienie pola magnetycznego to, przynajmniej w teorii, jeden z powodów, dla których uważamy Ziemię za unikatową zamieszkałą planetę. Powszechnie uważa się, że pole magnetyczne chroni nas przed szkodliwym promieniowaniem z kosmosu i umożliwia istnienie stabilnych oceanów i atmosfery, mówi Claire Nichols z Oksfordu.

    Dotychczasowe badania pokazywały, że pole magnetyczne Ziemi liczy sobie co najmniej 3,5 miliarda lat. Teraz widzimy, że jest o co najmniej 200 milionów lat starsze. To ważne, gdyż mówimy tutaj o okresie, w którym na Ziemi powstawało życie. Jeśli pole magnetyczne istniało kilkaset milionów lat wcześniej, mogło odegrać kluczową rolę w spowodowaniu, że Ziemia nadawała się do życia, wyjaśnia profesor Benjamin Weiss z MIT. Pole magnetyczne nie tylko chroni naszą planetę przed szkodliwym promieniowaniem, ale umożliwia jej też utrzymanie atmosfery.

    Skały tworzą się przez miliony lat, w miarę jak nawarstwiają się osady i minerały, które stopniowo są ściskane przez kolejne warstwy. W takich osadach znajdują się też cząsteczki minerałów reagujących na pole magnetyczne, takie jak tlenki żelaza. Układają się one wzdłuż linii pola magnetycznego. I właśnie ta ich wspólna zbiorowa orientacja wskazuje na jego istnienie. Jednak dane takie mogą zostać zniszczone, jeśli skały przeszły przemiany. Stąd też wyniki badań dotyczących śladów pola magnetycznego w skałach budzą w środowisku specjalistów wiele sporów.

    Uczeni z MIT i Oksfordu, poszukując skał, które mogły nie zostać przeobrażone, wybrali się na Grenlandię do odległej lokalizacji znanej jako Isua Supracrustal Belt. Badając próbki swoich skał stwierdzili, że musiały one powstać dawniej niż 2,5 miliarda lat temu, jeszcze zanim w atmosferze pojawił się tlen. Skały utworzyły się więc w oceanie. "Wtedy nie było tlenu w atmosferze, żelazo nie utleniało się tak łatwo, więc to co tu widzimy to tlenek żelaza, który był rozpuszczony w wodzie, osiągnął wysokie stężenie i opadł na dno", wyjaśnia Nichols. To piękne, dziwaczne skały, które wyglądają zupełnie inaczej niż to, co się tworzy obecnie na Ziemi, dodaje Weiss.

    Przeprowadzone w laboratorium badania nie tylko pozwoliły na określenie wieku skał, ale i na zmierzenie pola magnetycznego sprzed 3,7 miliarda lat. Okazało się, że jego natężenie wynosiło 15 µT, było więc dwukrotnie mniejsze od obecnego pola. To połowa natężenia, ale ten sam rząd wielkości. To pokazuje, że cokolwiek napędza pole magnetyczne Ziemi, to jego natężenie nie uległo znacznej zmianie przez miliardy lat, mówi Nichols.

    Naukowcy odkryli też, że skały zachowały zapis o polu magnetycznym, mimo że przeszły później dwa epizody, w których zostały ogrzane. Wszystko wskazuje na to, że gdy skały się utworzyły 3,7 miliarda lat temu, doszło do ich ogrzania do wysokiej temperatury i krystalizacji. Później jeszcze dwukrotnie, 2,8 miliarda lat temu i 1,5 miliarda lat temu, zostały ogrzane, ale temperatury nie były tak wysokie jak pierwotnie, więc zapis ich magnetyzacji się nie zmienił.

    Wciąż nie wiadomo, co było źródłem pola magnetycznego przed miliardami lat. Zgodnie z obecnymi teoriami, pole magnetyczne generowane jest w wewnętrznym jądrze Ziemi. Jednak nauka uważa, że nie istniało ono 3,7 miliarda lat temu. Cokolwiek generowało wtedy pole magnetyczne, było czymś innym niż obecnie. Zajmuje nas Ziemia, bo istnieje na niej życie, ale te badania pozwalają lepiej zrozumieć inne planety typu ziemskiego. Pokazują bowiem, że planety mają wiele różnych sposobów na wytworzenie pola magnetycznego, a to ważna kwestia w poszukiwaniu planet, na których mogło powstać życie, dodaje profesor Weiss.


    « powrót do artykułu

  9. Psycholodzy społeczni z Uniwersytetu w Amsterdamie postanowili zbadać, na ile ludzie wierzą naukowcom z różnych dziedzin. W ich badaniach wzięło udział 2780 Amerykanów, a zebrane od nich dane pozwoliły na określenie poziomu zaufania do specjalistów z 45 dziedzin nauki. To prawdopodobnie pierwsze badania tego typu, którymi objęto tak wiele różnych dziedzin. Ich uczestnicy mieli określić poziom kompetencji (na ile są mądrzy i inteligentni), asertywności (na ile sprawiają wrażenie pewnych i asertywnych), moralności (na ile są uczciwi) oraz przyjazności.

    Badania prowadzono w oparciu o nowo opracowany Influence Granting Task, w ramach którego uczestnicy mieli do rozwiązania złożone problemy i mogli scedować podjęcie decyzji na różne grupy, w tym przyjaciół czy wszystkich obywateli. Jedną z tych grup byli naukowcy. Autorzy eksperymentu zauważyli, że ludzie generalnie ufają naukowcom, ale poziom zaufania znacząco się różni w zależności od dziedziny nauki. Najmniejszym zaufaniem na 7-punktowej skali cieszyli się politolodzy (3,71 pkt.) i ekonomiści (4,28 pkt.). Najwięcej zaś zaufania pokładamy w neurobiologach (5,53 pkt.) i biologach morskich (5,54 pkt.).

    Okazuje się, że najważniejszymi czynnikami, które decydują o poziomie społecznego zaufania do naukowców z danej dziedziny są ich kompetencje oraz moralność. Gdy naukowcy są postrzegani jako kompetentni i moralni, ludzie z większym prawdopodobieństwem powierzają im rozwiązywanie problemów społecznych. Co interesujące, wpływ moralności na zaufanie był różny dla różnych dziedzin nauki. Moralność najbardziej liczyła się na tych polach naukowych, które wywołują obecnie kontrowersje w mediach – jak w klimatologii czy socjologii – a mniej na polach niekontrowersyjnych, jak geografia czy archeologia.

    Największym zaufaniem społecznym – jak już wspomnieliśmy – cieszą się biolodzy morscy i neurobiolodzy. W pierwszej 10 zaufania znaleźli się też zoolodzy, astrofizycy, oceanografowie, inżynierowie lotniczy i kosmiczni, mikrobiolodzy, astronomowie, immunolodzy i biolodzy. Z kolei najniżej na liście zaufania uplasowali się politolodzy, ekonomiści, socjolodzy, specjaliści ds. nauk o żywieniu, meteorolodzy, psycholodzy, farmakolodzy, agronomowie, statystycy i danolodzy.


    « powrót do artykułu

  10. W Bibliotece Uniwersyteckiej w Poznaniu odkryto 27 książek z prywatnej kolekcji braci Grimmów. Dotychczas woluminy te uważano za zaginione w czasie wojny. To kolejne książki słynnych pisarzy, które zidentyfikowano w Poznaniu. O tym, że mamy w zbiorach dzieła należące wcześniej do braci Grimm, wiemy już od 2002 roku, kiedy zidentyfikowaliśmy pierwsze sześć woluminów. Powstał wówczas katalog inkunabułów, opracowany przez prof. Wiesława Wydrę, który zawiera ich opis, mówi kustosz Renata Wilgosiewicz-Skutecka z Biblioteki Uniwersyteckiej.

    W Bibliotece od lat prowadzone są badania proweniencyjne, w czasie których określane są losy poszczególnych książek, od momentu ich powstania. Wilgosiewicz-Skutecka wyjaśnia, że w czasie digitalizacji katalogu zbiory są dokładnie opisywane i badane. Odczytujemy zapiski dawnych właścicieli, badamy stemple znajdujące się na dziełach, opisujemy ich oprawy, wyjaśnia.

    Profesor Eliza Pieciul-Karmińska od wielu lat zajmuje się badaniem twórczości braci Grimm. Gdy usłyszała o o znalezieniu pierwszych sześciu woluminów z biblioteki słynnych pisarzy, postanowiła sprawdzić, czy w Poznaniu nie ma ich więcej. Punktem wyjścia był katalog Ludwiga Deneckego, który podjął się rekonstrukcji prywatnego księgozbioru braci Grimm. Poświęcił dziesięciolecia na to, by skatalogować ich książki, opisał także dzieła, które oznaczył jako "zagubione". Pani Renata wpadła więc na pomysł, że dobrze byłoby poszukać tak oznaczonych książek. Na szczęście Grimmowie oznaczali swoje książki sygnaturami, podobnie robiła biblioteka w Berlinie, a poznańska Biblioteka Uniwersytecka każdą z tych sygnatur pieczołowicie odnotowywała, co ułatwiło poszukiwania, mówi uczona.

    Poszukiwania okazały się owocne. Dzięki nim dowiedzieliśmy się, że Poznaniu znajduje się nie 6 a 33 książki z bogatej biblioteki braci. Z przeprowadzonych badań dowiedzieliśmy się, że książki trafiły do Poznania z latach 1898–1899. Tworzono wówczas Kaiser-Wilhelm-Bibliothek i biblioteka w Berlinie – by krzewić niemiecką kulturę na wschodzie – przekazała do Poznania dublety, książki, które posiadała w co najmniej dwóch egzemplarzach.

    Dzieła mają wielką wartość. Bracia-pisarze zbierali starodruki, są wśród nich egzemplarze z końca XV wieku. Na tym jednak ich wartość się nie kończy. Nie dość, że należały do wybitnych twórców, to Jakub i Wilhelm pozostawili na książkach zapiski, które posłużą do badania ich twórczości. Trzeba bowiem pamiętać, że bracia Grimm nie są tylko i wyłącznie twórcami bajek.

    Przeciętnemu polskiego czytelnikowi bracia Grimm kojarzą się głównie z baśniami, na co dzień traktujemy ich jak pisarzy. Tymczasem w kulturze niemieckiej to szczególne postaci, wybitni uczeni, twórcy zrębów filologii niemieckiej. Opracowanie baśni było tylko częścią ich działalności, zajmowali się także badaniem historii języka niemieckiego, jego gramatyki. Byli także autorami fundamentalnego Słownika języka niemieckiego. Rozmach ich badań był naprawdę imponujący, mówi profesor Pieciul-Karmińska.

    Wiemy, że podczas pracy Wilhelm używał ołówka, a Jakub pióra. Podkreślali interesujące ich fragmenty, robili notatki. Pozwala to śledzić ich pracę, tok myślenia i proces twórczy.

    Najpierw jednak trzeba te notatki odcyfrować, co nie zawsze jest łatwe. Bracia pisali dla siebie, posługiwali się skrótami myślowymi, inicjałami. Trzeba też sprawdzić, co ich zainspirowało do wynotowania danego słowa - może chcieli w ten sposób zaznaczyć nazwę własną, a może myśleli o konkretnym motywie baśniowym? Warto pamiętać, że na początku XIX wieku, gdy Grimmowie rozpoczęli dzieło zbierania baśni, dzisiejsze Niemcy nie były jednolitym państwem, ale były rozbite na wiele mniejszych. Dlatego to, skąd pochodziła dana wersja baśni, czy była przetworzoną opowieścią francuską, czy może wariantem heskim, czy np. pochodziła z okolic Paderbornu, było dla Grimmów istotną informacją, odnotowywaną w odręcznych notatkach, a później w przypisach, wyjaśnia profesor Pieciul-Karmińska.


    « powrót do artykułu

  11. Podczas remontu Mount Vernon, posiadłości pierwszego prezydenta USA George'a Washingtona, archeolodzy znaleźli w piwnicy dwie nietknięte butelki europejskiego wina. Ciemnozielone butelki były w pozycji pionowej, były zapieczętowane i zawierały płyn. Ich kształt odpowiada charakterystycznemu stylowi butelek z lat 40. i 50. XVIII wieku. Znajdowały się w zagłębieniu, na którym w latach 70. ułożono podłogę z cegieł.

    Podczas renowacji domu bohatera wojny o niepodległość i pierwszego prezydenta USA prowadziliśmy bardzo ostrożne badania archeologiczne, by uniknąć zniszczenia potencjalnie nieznanych artefaktów. Dzięki temu dokonaliśmy wielu użytecznych odkryć, w tym dwóch zawierających płyn butelek. Takich butelek nie widziano tutaj od czasów jeszcze przed wojny o niepodległość USA, mówi Doug Bradburn zarządzający Mount Vernon z ramienia organizacji Mount Vernon Ladies' Association, do której należy posiadłość Washingtona.

    Butelki zostały przetransportowane do laboratorium, gdzie zdecydowano, że opróżnienie ich z zawartości pozwoli na ustabilizowanie szkła, która od ponad 200 lat nie było wystawione na bezpośrednie działanie warunków atmosferycznych. W płynie znajdowały się resztki wiśni, w tym pestki i ogonki. Pozostawiono je w nim. Jak mówią badacze, płyn wciąż pachnie kwiatami czereśni, który to zapach roznosi się wiosną po okolicach Mount Vernon.

    Mount Vernon Ladies' Association zdecydowało się na przeprowadzenie rewitalizacji prezydenckiej rezydencji, gdyż budynek nie powstał z myślą o takim ruchu, jaki panuje w nim obecnie. Został wybudowany jako prywatna rezydencja. Dzisiaj każdego dnia odwiedzają go tysiące osób. W swojej 290-letniej historii był remontowany i dokonywano napraw, jednak niektóre elementy naprawiano ostatnio ponad 100 lat temu.


    « powrót do artykułu

  12. Naukowcy z Uniwersytetu Harvarda zauważyli, że kwas oleinowy – który jest obecny w tłuszczach i stanowi główny składnik oliwy z oliwek czy tranu – odgrywa rolę w przerzutowaniu (metastazie) nowotworów. Uczeni podkreślają, że ich odkrycie nie jest zaprzeczeniem faktu, iż oliwa z oliwek pomaga w zapobieganiu wielu schorzeniom, w tym chorobom układu krążenia. Dodają, iż prowadzone przez nich badania są bardzo skomplikowane i wiele kwestii wymaga jeszcze wyjaśnienia.

    Onkologia od dekad skupia się na zapobieganiu przerzutom w rozwoju chorób nowotworowych. Profesor Jessalyn Ubellacker z Harvard T.H. Chan School of Public Health badała ze swoim zespołem związki pomiędzy dietą a rozprzestrzenianiem się nowotworów i odkryła, że komórki nowotworowe tworzą wokół siebie osłonki z kwasu oleinowego znajdującego się w węzłach chłonnych.

    Ubellacker podkreśla, że jej badania nie przyniosły dowodu na związek pomiędzy spożywaniem oliwy z oliwek, a rozprzestrzenianiem się nowotworów. Wręcz przeciwnie, naukowcy sądzą, że to sam organizm jest głównym źródłem tłuszczy, z których komórki nowotworowe tworzą osłony. Obecnie uczona i jej zespół badają, czy dodatkowy kwas oleinowy w diecie ma wpływ na rozprzestrzenianie się nowotworów, a jeśli tak, to czy można by nim manipulować w taki sposób, by wpłynąć na prawdopodobieństwo przerzutowania.

    Jeśli znaleźlibyśmy sposób na kontrolowanie lub zapobieganie metastazie, wówczas nowotwory nie byłyby w stanie powodować tak dużych uszkodzeń organizmu, poważnych chorób oraz tylu zgonów, dodaje profesor Ted James, ordynator oddziału onkologicznej chirurgii piersi w Beth Israel Deaconess Medical Center.

    James i Ubellacker prowadzą prace nad dietą i przerzutowaniem, korzystając przy tym z pomocy 50 kobiet, u których stwierdzono raka piersi. To niezbadany dotychczas obszar, wyjaśnia James.

    Nowotwór, który się rozprzestrzenia używa tłuszczów do ochrony w bardzo odmienny sposób od nowotworu, który dopiero powstaje. Chcemy zrozumieć, co się dzieje, gdy pacjent ma już nowotwór i daje on przerzuty, dodaje Ubellacker. Specjaliści ds. żywienia z Chan School wykazali korzystny wpływ na zdrowie diety śródziemnomorskiej i diety roślinnej, w tym tłuszczów. Analizujemy ich badania, by stwierdzić, czy profil lipidowy diety jest powiązany z późniejszą diagnozą nowotworów  i ich rozwojem z udziałem lub bez udziału węzłów chłonnych, wyjaśnia.

    W ramach badań naukowcy będą zbierali szczegółowe informacje o diecie wspomnianych 50 pacjentek oraz pobierali próbki ich węzłów chłonnych. Próbki będą analizowane pod kątem występowania 300 rodzajów tłuszczów i ich metabolitów.


    « powrót do artykułu
    • Zasmucony 1

  13. Rower cargo, zwany także rowerem towarowym, to nie tylko trend, ale odpowiedź na rosnące potrzeby mieszkańców gęsto zabudowanych metropolii, gdzie transport musi być zarówno efektywny, jak i ekologiczny. Rower cargo zaprojektowano z myślą o przewożeniu większych ładunków niż tradycyjny rower, co czyni go idealnym rozwiązaniem zarówno dla biznesów, jak i dla rodziców przewożących dzieci czy zakupy. W ostatnich latach obserwujemy znaczący wzrost popularności tych rowerów, szczególnie modeli elektrycznych.
    dobry rower cargo – cechy, na które warto zwrócić uwagę
    Wybierając rower cargo, należy zwrócić uwagę na kilka kluczowych aspektów, które decydują o funkcjonalności i trwałości pojazdu:

    Wytrzymałość: Rama roweru cargo powinna być solidna i dobrze zaprojektowana, aby mogła wytrzymać ciężar przewożonych ładunków. Warto zwrócić uwagę na materiały, z których została wykonana rama – stal czy aluminium to popularne wybory ze względu na ich trwałość i odporność na uszkodzenia. Użyteczność: Rower cargo powinien być wygodny w użytkowaniu, nawet przy pełnym załadunku. Dobrej jakości rowery cargo oferują różne konfiguracje ładunków, w tym skrzynie i platformy montowane z przodu lub z tyłu. Ważne jest, by były one łatwe w montażu i demontażu. E-bike (rower elektryczny): Wersje elektryczne rowerów cargo są szczególnie popularne ze względu na dodatkowe wsparcie silnika, które ułatwia przewożenie ciężkich ładunków. Przy wyborze e-bike’a cargo zwróć uwagę na moc silnika i pojemność baterii, które wpływają na zasięg i komfort jazdy.

    jaki rower cargo wybrać? praktyczne porady i wskazówki
    Wybór odpowiedniego roweru cargo zależy od indywidualnych potrzeb i warunków, w jakich będzie użytkowany:

    Czego potrzebujesz: Zastanów się, co będziesz przewoził. Jeśli planujesz transportować ciężkie ładunki lub dzieci, poszukaj modeli z mocniejszą ramą i lepszym systemem hamulcowym. Rodzaj roweru: Rower cargo dostępny jest w wersjach dwukołowych i trójkołowych. Rower trójkołowy oferuje większą stabilność, ale jest mniej zwrotny, co może być problemem w ciasnych miejskich uliczkach. Rower dwukołowy jest lżejszy i zazwyczaj szybszy, ale wymaga więcej umiejętności przy balansowaniu ładunku. Napęd: Modele z napędem elektrycznym to doskonały wybór dla tych, którzy potrzebują dodatkowej pomocy podczas jazdy. Silnik elektryczny pomaga w pokonywaniu podjazdów i przewożeniu cięższych ładunków bez dodatkowego wysiłku. Wygoda i bezpieczeństwo: Ważne jest, by rower był wygodny. Zwróć uwagę na jakość siedziska, system hamulcowy oraz dodatkowe funkcje takie jak oświetlenie czy błotniki. Cena: Rower cargo jest inwestycją na lata, więc warto wybrać model, który oferuje dobrą jakość wykonania i jest objęty gwarancją lub dostępem do serwisu.

    Sprawdź elektryczne rowery cargo na https://sprint-rowery.pl/rowery-elektryczne-cargo


    « powrót do artykułu

  14. NASA jest na dobrej drodze do rozwiązania problemów z Voyagerem 1. Po raz pierwszy od listopada pojazd przysłał użyteczne dane. Z Voyagera w końcu napłynęły informacje o stanie jego podzespołów. W najbliższym czasie inżynierowie chcą sprawić, by pojazd rozpoczął przesyłanie danych naukowych.

    Przed pięcioma miesiącami, 14 listopada ubiegłego roku, z Voyagera 1 przestały napływać użyteczne dane naukowe i inżynieryjne. Sprawa była tajemnicza tym bardziej, że centrum kontroli misji wiedziało, że poza tym pojazd działa prawidłowo i odbiera komendy z Ziemi.

    W marcu udało się ustalić, że problem dotyczy komputera FDS (flight data system). Nie komunikował się on prawidłowo z TMU (telemetry modulation unit). FDS jest odpowiedzialny za zbieranie i łączenie danych z instrumentów naukowych oraz danych inżynieryjnych dotyczących samego Voyagera. Informacje te są następnie przesyłane na Ziemię za pośrednictwem TMU.

    Inżynierowie NASA zauważyli, że jeden z układów scalonych odpowiedzialnych za przechowywanie danych z FDS, w którym znajdowało się też część oprogramowania, nie działa. Utrata tego kodu spowodowała, że wysyłane na Ziemię dane były nieczytelne. Jako, że wspomnianego układu nie można było naprawić, specjaliści zdecydowali się na przeniesienie kodu w inne miejsce pamięci FDS. Problem w tym, że żadna z dostępnych lokalizacji nie była na tyle pojemna, by przechować cały kod. Został on więc podzielony i wgrany w różne miejsca. Jednak, by zadziałał, najpierw trzeba było się upewnić, że całość będzie funkcjonowała jak jeden kod oraz wprowadzić niezbędne poprawki dotyczące lokalizacji poszczególnych fragmentów kodu.

    Próbę generalną przeprowadzono 18 kwietnia, kiedy nowy kod wysłano do Voyagera. Sygnał w jedną stronę biegnie 22,5 godziny, zatem dopiero 20 kwietnia można było sprawdzić, czy się udało. Wtedy to, po raz pierwszy od 5 miesięcy, na Ziemię trafiły dane pozwalające sprawdzić status pojazdu.

    W ciągu kolejnych tygodni centrum kontroli misji będzie przeprogramowywało i wysyłało do Voyagera kolejne fragmenty kodu z uszkodzonego chipa. Będzie wśród nich też oprogramowanie, które spowoduje, że będziemy otrzymywali dane naukowe.

    Voyager 1 został wystrzelony 5 września 1977 roku. Wraz z bliźniaczą sondą, Voyagerem 2 (wystrzelona 20 sierpnia 1977), są jedynymi zbudowanymi przez człowieka pojazdami, które opuściły Układ Słoneczny. Obecnie Voyager 1 znajduje się w odległości 24,33 miliardów kilometrów od Ziemi i porusza się z prędkością niemal 61 000 km/h względem Słońca. Za 300 lat dotrze do wewnętrznych obszarów Obłoku Oorta. Voyagera 2, który porusza się z prędkością 55 000 km/h dzieli od nas 20,37 miliardów kilometrów.


    « powrót do artykułu
    • Pozytyw (+1) 1

  15. IceCube, umieszczony w lodzie Antarktydy gigantyczny wykrywacz neutrin o objętości 1 km3, zarejestrował sygnały, które mogą pochodzić z niezwykle trudnego do uchwycenia neutrino taonowego. Neutrina występują w trzech odmianach: elektronowej, mionowej i taonowej. Wyjątkowo trudno jest zarejestrować to ostatnie pochodzące ze źródeł astrofizycznych. Na łamach Physical Review Letters opublikowano właśnie artykuł, w którym naukowcy z IceCube Collaboration donoszą o zarejestrowaniu aż 7 sygnałów świadczących o obecności neutrino taonowego.

    Wykrycie siedmiu sygnałów w połączeniu z bardzo niskim poziomem szumu tła pozwala nam stwierdzić, że jest wysoce nieprawdopodobne, by były to fałszywe sygnały powodowane zakłóceniami z tła, mówi jeden z autorów badań, profesor Doug Cowen z Penn State University. Uczony dodaje, że prawdopodobieństwo, iż sygnał jest skutkiem zakłóceń jest mniejsze niż 1:3 500 000.

    Podczas przyszłych analiz naukowcy wykorzystają dane z większej liczby czujników. Podczas obecnych badań wykorzystano czujniki z 3 zatopionych w lodzie lin. Na każdej linie jest 60 czujników. Tymczasem w skład IceCube wchodzi 86 lin. Naukowcy mają nadzieję, że dzięki większej liczbie danych zdobędą kolejne informacje o tym tak trudnym w badaniu neutrino.

    Obecnie nie istnieje narzędzie, które pozwoliłoby na określenie energii i kierunku neutrin badanych podczas ostatnich analiz. Jeśli taki wyspecjalizowany algorytm powstanie, naukowcy będą w stanie lepiej odróżnić sygnał neutrina taonowego od szumu tła i wykrywać takie neutrina w czasie rzeczywistym. Obecnie w ten sposób wykrywane są neutrina elektronowe i mionowe, a światowa społeczność naukowców zainteresowanych ich badaniem, na bieżąco otrzymuje alerty o zarejestrowaniu takich sygnałów.


    « powrót do artykułu

  16. Jeśli zamierzasz przejść na samozatrudnienie lub otworzyć własny biznes działający na większą skalę, formalności wydają się proste. Podczas rejestracji firmy musisz jednak podać jej adres, a to może być pewien problem. Sprawdźmy, jak rozwiązać go z wirtualnym biurem w Warszawie i dla kogo przede wszystkim jest to propozycja.

    Adres dla firmy: w czym problem?

    Rejestracja firmy – zwłaszcza jednoosobowej działalności, która cieszy się w Polsce zdecydowanie największą popularnością – jest naprawdę prosta. W większości przypadków będziesz w stanie załatwić formalności w ciągu maksymalnie kilkudziesięciu minut przez Internet.

    Ale wielu przyszłych przedsiębiorców nieoczekiwanie zatrzymuje się na rubrykach dotyczących firmowych adresów. Co prawda nie musisz posiadać stałego miejsca wykonywania działalności (jak ma to miejsce na przykład w przypadku sklepów), ale musisz wskazać m.in. adres do doręczeń.

    Dla sporej grupy osób, zwłaszcza tych wynajmujących mieszkanie, uzyskanie zgody na rejestrację firmy w miejscu zamieszkania może być trudne lub niemożliwe. Nawet jeśli np. posiadasz prawo własności nieruchomości, podawanie adresu domowego jako siedziby firmy może wpłynąć na Twoje poczucie prywatności: do skrzynki będzie trafiać mnóstwo korespondencji (zarówno tej chcianej, jak i nie), a nawet mogą odwiedzać Cię akwizytorzy.

    Czym jest biuro wirtualne?

    Wirtualne biuro, określane również jako wirtualny adres dla firmy, jest w takim przypadku idealnym rozwiązaniem! To usługa, która pozwala przyszłym i aktualnym przedsiębiorcom na uzyskanie adresu, który można umieścić w publicznych rejestrach, ale również posługiwać się nim w komunikacji biznesowej i marketingowej.

    Jednocześnie najem nie dotyczy standardowej przestrzeni biurowej, dzięki czemu możesz spełnić wszystkie wymogi formalne, działać zgodnie z prawem i naprawdę sporo zaoszczędzić. Sprawdź, co możesz zyskać, wybierając biuro wirtualne w Warszawie od Biznes Centrum.

    Poznaj zalety biura wirtualnego w Warszawie

    Dzięki sprawdzonemu partnerowi otrzymujesz przede wszystkim:

    Adres do rejestracji i korespondencji: możliwa jest rejestracja firmy pod wskazanym adresem. Jeśli postawisz na wirtualne biuro w Warszawie centrum czy innej rozpoznawalnej w całym kraju lokalizacji, zyskasz także prestiż i rozpoznawalność, które pomogą Ci rozwijać biznes. Usługi wsparcia: biuro wirtualne będzie zajmować się obsługą Twojej korespondencji. W znacznym stopniu to od Ciebie zależy, co będzie się działo z przesyłkami: możesz zdecydować się na przykład na ich skanowanie oraz wysyłkę mailem. Elastyczność i oszczędność: biuro kojarzy Ci się z bardzo drogimi biurowcami, gdzie czynsz to wydatek dziesiątek, a nawet setek tysięcy złotych? Wirtualne biuro w Warszawie działa na innej zasadzie. Dostępne są zróżnicowane plany dostosowane do różnorodnych potrzeb. Od samego początku wiesz, ile zapłacisz i wiesz, że wydatki będą bardzo niskie. Bezpieczeństwo i prywatność: dzięki adresowi dla firmy zyskujesz bezpieczeństwo danych i prywatność, oddzielając adres domowy od biznesowego.

    Kto powinien pomyśleć o adresie dla firmy?

    Dla kogo są wirtualne biura? Idealnie sprawdzą się niemal w każdym przypadku. Przede wszystkim warto o nich pomyśleć, jeśli:

    Jesteś freelancerem lub pracujesz na B2B: dla osób samozatrudnionych pracujących z domu adres wirtualny firmy może stać się najlepszym sposobem na oddzielenie życie prywatnego od zawodowego. Pozwoli także w łatwy sposób uporać się z problemami z rejestracją działalności. Zarządzasz start-upem: Młode firmy, które chcą zbudować silną markę i zyskać zaufanie inwestorów oraz klientów, mogą skorzystać z prestiżowego adresu, który podnosi ich wiarygodność na rynku. Prowadzisz działalność sezonową lub projektową: dla firm, które nie potrzebują stałego biura, ale chcą utrzymać profesjonalny wizerunek, wirtualne biuro jest idealnym rozwiązaniem. Współpracujesz wyłącznie zdalnie: to samo dotyczy również coraz częstszej sytuacji, w której po prostu nie potrzebujesz standardowego biura, bo Ty i Twoi współpracownicy pracujecie wyłącznie zdalnie.
    « powrót do artykułu

  17. Wiemy, że klimat miał olbrzymi wpływ na pojawianie się i znikanie różnych gatunków człowieka. Jednak u licznych kręgowców wielką rolę odgrywa rywalizacja międzygatunkowa. Laura A. van Holstein i Robert A. Foley z University of Cambridge opublikowali na łamach Nature. Ecology & Evolution artykuł, w którym stwierdzają, że rywalizacja odgrywała olbrzymią rolę w ciągu pięciu milionów lat ewolucji homininów i wpływała na powstawanie gatunków (specjację).

    Dotychczas ignorowaliśmy wpływ konkurencji międzygatunkowej na kształtowanie naszego własnego drzewa ewolucyjnego. Wpływ klimatu na gatunki homininów to tylko część układanki, mówi doktor van Holstein.

    Van Holstein przypomina, że u innych kręgowców powstają gatunki, które wypełniają wolne nisze ekologiczne. Weźmy słynne zięby Darwina. Jedne wyewoluowały duże dzioby, dzięki którym mogły rozbijać orzechy, inne miały małe dzioby, pozwalające im żywić się owadami. Gdy każda z nisz ekologicznych została zapełniona, rozpoczęła się konkurencja, a nowe gatunki przestały się pojawiać.

    Autorzy obecnych badań wykorzystali modelowanie bayesowskie oraz analizy filogenetyczne i na tej podstawie wykazali, że większość gatunków homininów powstała w warunkach niskiej konkurencji o zasoby lub przestrzeń. Wzorzec, który widzimy u wielu wczesnych homininów jest podobny do wzorca obserwowanego u innych ssaków. Specjacja zwiększa się, a później wypłaszcza i zaczyna się wymieranie. To wskazuje, że konkurencja międzygatunkowa jest ważnym czynnikiem ewolucyjnym, mówi van Holstein.

    Uczeni zauważyli jednak pewne „dziwaczne” zjawisko w przypadku rodzaju Homo. W tej linii ewolucyjnej, która doprowadziła do pojawienia się H. sapiens, wzorce ewolucji wskazują, że konkurencja pomiędzy gatunkami doprowadziła do pojawienia się kolejnych gatunków. To zupełne odwrócenie trendów, jakie obserwujemy u niemal wszystkich innych kręgowców. Im więcej było gatunków Homo, tym szybsze tempo specjacji. To zjawisko niemal bezprecedensowe w naukach o ewolucji, stwierdza van Holstein. Najbliższą analogią do niego jest... ewolucja chrząszczy żyjących na wyspach. Wzorce ewolucji, które zaobserwowaliśmy wśród linii ewolucyjnej rodzaju Homo, która doprowadziła do powstania H. sapiens, bardziej przypominają wzorce ewolucyjne chrząszczy z wysp, niż innych naczelnych, a nawet innych ssaków, komentuje uczona.

    Autorzy badań przypominają, że szczątki, które znajdujemy w zapisie kopalnym nie pozwalają dokładnie datować czasu, w którym dany gatunek występował. Zachowanie się szczątków zależy bowiem od warunków, w jakich przebywały, a ponadto badania koncentrują się w konkretnych miejscach na świecie. Dlatego też to, co znajdujemy, najprawdopodobniej nie jest ani najstarszym, ani najmłodszym przedstawicielem konkretnego gatunku. Dlatego uczeni wykorzystali metody statystyczne do określenia nowych dat początku i końca istnienia większości znanych gatunków homininów.

    Z artykułu dowiadujemy się, że część gatunków, o których dotychczas sądzono, iż pojawiły się w wyniku anagenezy – procesu zmian ewolucyjnych całej populacji prowadzącego do pojawienia się tak istotnych różnic, że nowa populacja zostaje uznana za nowy gatunek, a populacja początkowa za gatunek wymarły – w rzeczywistości mogą być efektem rozdzielenia się linii ewolucyjnych w ramach tego samego gatunku. Na przykład obecnie uważa się, że Australopithecus afarensis pojawił się w wyniku anagenezy Australopithecus anamensis. Jednak z nowych badań wynika, że oba gatunki żyły jednocześnie przez około 500 000 lat. To oznacza, że najprawdopodobniej równocześnie żyło więcej gatunków homininów, niż się obecnie zakłada, więc prawdopodobnie gatunki te konkurowały.

    Van Holstein mówi, że motorem napędowym niezwykłego wzorca ewolucji rodzaju Homo mogło być opanowanie narzędzi czy ognia. Dzięki temu Homo nie musiał czekać na pojawienie się fizycznych zmian – na przykład zębów zdolnych do poradzenia sobie z nowymi rodzajami żywności – ale mógł dostosowywać nisze ekologiczne do siebie. Ponadto użycie narzędzi pozwalało na łatwe zajmowanie kolejnych nisz ekologicznych oraz konkurencję z innymi gatunkami, co może wyjaśniać sukces ewolucyjny rodzaju Homo. W końcu doprowadziło to do pojawienia się gatunku H. sapiens, zdolnego do życia w niemal każdym środowisku i korzystania z niemal każdego źródła pożywienia. A to mogło przyczynić się do wyginięcia wszystkich innych gatunków Homo.


    « powrót do artykułu

  18. Uczeni z Uniwersytetu Warszawskiego i Szkoły Głównej Gospodarstwa Wiejskiego pracują nad nową technologią wczesnego diagnozowania chorób Parkinsona i Alzheimera. Metoda, opracowana przez dr inż. Piotra Hańczyca z Wydziału Fizyki UW polega na badaniu widma światła powstającego po prześwietleniu laserem pobranych od pacjentów próbek płynu mózgowo-rdzeniowego. Analiza tego widma pozwala na odkrycie amyloidów oraz zweryfikowanie ich stadiów. Dzięki niej można zauważyć gromadzenie się amyloidów na długo przed wystąpieniem objawów.

    Amyloidy to nieprawidłowe białka, które mają tendencję do akumulowania się i zbijania w grupy. Z czasem tworzą fibryle amyloidowe, a następnie blaszki amyloidowe. Taki proces trwa wiele lat. W końcu nagromadzenie amyloidów w układzie nerwowym zaczyna zakłócać jego pracę i prowadzi do degeneracji.

    Choroby neurodegeneracyjne najczęściej są diagnozowane stosunkowo późno, gdy ich leczenie jest już utrudnione i nie przynosi zadowalających rezultatów. Wynika to ze specyfiki tych schorzeń. Mogą one rozwijać się latami bez wystąpienia objawów, ponieważ nasz układ nerwowy uruchamia silne mechanizmy obronne, które odwlekają je w czasie. Dopiero po przekroczeniu pewnej masy krytycznej choroby te dają o sobie znać. Dla medycyny ważne jest więc, by dysponować metodą diagnostyczną, która pozwoli wykryć schorzenia wiele lat przed tym, gdy pacjent odczuje, że jest chory, wyjaśnia doktor Hańczyc.

    Metoda Hańczyca polega na przepuszczeniu światła laserowego przez próbkę, którą wcześniej znakuje się barwnikami fluorescencyjnymi wiążącymi się z amyloidami. Dzięki temu wzbudzane wiązką lasera komórki amyloidów emitują specyficzne widmo. To pozwala na stwierdzenie, czy w próbce w ogóle są amyloidy, a jeśli tak, to na jakim stadium rozwoju się znajdują. Można też sprawdzić, czy w próbce dochodzi do agregacji białka ASN (alfa-synukleiny). W przypadku osoby zdrowej agregacja białek nie zachodzi w stopniu zaburzającym codziennie funkcjonowanie. Jeżeli natomiast badany materiał pochodzi od osoby chorej, fluorescencyjny barwnik zwiąże się z ASN, co pozwoli dać lekarzowi wskazanie, iż pacjent, nawet gdy nie ma jeszcze żadnych objawów, w przyszłości rozwinie się choroba Parkinsona, dodaje twórca metody.

    Obecnie uczeni z UW i SGGW pracują nad rozwojem opisanej technologiii jej komercjalizacją. Ich celem jest zoptymalizowanie sprzętu potrzebnego do prowadzenia badań spektroskopowych ze wzmocnio0nym laserem oraz stworzenie oprogramowania, które pozwoli na zautomatyzowanie całej pracy. Komercjalizacja ma odbyć się za pośrednictwem spółki Neurolight, powołanej przez spółki celowe – UWRC i InnoTech4Life – założone przez obie uczelnie.


    « powrót do artykułu

  19. Od ponad 10 lat archeolodzy badają niezwykły średniowieczny wrak – duński okręt królewski, który zatonął w 1495 roku wraz z setką niemieckich najemników, gdy król Danii płynął do Szwecji, by uzyskać dla siebie tron i przywrócić Unię Kalmarską. To jeden z najlepiej zachowanych szczątków statków ze średniowiecza. Na jego pokładzie, o czym wcześniej informowaliśmy, znaleziono egzotyczne przyprawy i podarunek króla Danii dla regenta Szwecji. Teraz archeolodzy trafili tam na kolejny wyjątkowy zabytek, średniowieczną skrzynię z narzędziami i materiałami do wytwarzania amunicji, zeuglade.

    Latem 1495 roku król Hans (Jan Oldenburg) płynął do Szwecji na królewskim okręcie flagowym Gribshunden. Ten 40-latek był od 1481 roku królem Danii, a od 1483 królem Norwegii. Jan chciał przywrócić Unię Kalmarską, Ten najpotężniejszy w swoim czasie sojusz północnej Europy przeżywał poważny kryzys. Został de facto zerwany pod koniec lat 40. XV wieku. Chrystian I Oldenburg, wybrany wówczas na króla Danii zdobył Norwegię w 1450 roku, jednak walki o tron szwedzki toczyły się przez kilkadziesiąt lat.

    Dlatego też duński i norweski król Jan Oldenburg płynął z Kopenhagi do Kalmaru, w nadziei, że spotka się ze szwedzkim regentem Stenem Sture Starszym i przekona go do uznania praw Duńczyka do tronu Szwecji. Chciał pokazać swą potęgę i wspaniałomyślność.

    Pewnej nocy, gdy Gribshunden znajdował się na wysokości Ronneby, które wówczas należało do Danii, na pokładzie wybuchł pożar. Króla nie było wówczas na okręcie, jednak jednostka wraz z załogą i całym ładunkiem zatonęła.

    Skrzynia to jedno z najważniejszych dotychczasowych odkryć na pokładzie Gribshundena. O jej istnieniu wiedziano od 2019 roku, dopiero jednak podczas ostatniego sezonu badawczego przystąpiono do jej szczegółowych oględzin i dokumentacji zawartości. Znaleziono tam między innymi formy i ołowiane płyty, które służyły do produkcji kul do wczesnej ręcznej broni palnej. Najprawdopodobniej należała do najemników, których Jan Oldenburg wiózł ze sobą na negocjacje z regentem.

    Archeolodzy znaleźli też fragmenty kolczugi, które pochodziły z jednej lub więcej kolczug. Analizy przeprowadzone na Uniwersytecie w Sztokholmie wykazały, że fragmenty zawierały wiele metalowych kółek o różnej konstrukcji, co wskazuje na wielokrotnie przeprowadzane naprawy.

    Naukowcy skupiają się obecnie na rekonstrukcji budowy jednostki oraz badaniu zmian, jakim wrak podlega w czasie. Okręt ten to ważny przyczynek do poznania „wojskowej rewolucji na morzu”, jaka zachodziła we wczesnej nowożytności, gdy taktyka walki na morzu zmieniała się z walki wręcz na bitwy artyleryjskie. Okręt ten będzie porównywany z innymi ważnymi i dobrze zachowanymi jednostkami, jak Mars (zatonął w 1564) czy Waza (1628), co pozwoli nam zrozumieć ewolucję takich jednostek, zauważa doktorant Rolf Warming.

    Szczegółowy raport z badań został udostępniony w sieci.


    « powrót do artykułu

  20. Specjaliści z Poczdamskiego Instytutu Badań nad Wpływem Klimatu szacują, że nawet gdybyśmy od jutra radykalnie zmniejszyli emisję CO2, to do roku 2050 zmiany klimatu będą powodowały rocznie 19-procentową utratę globalnego dochodu. Oznacza to, że średnia roczna strata wyniesie 38 bilionów USD w porównaniu ze scenariuszem, gdyby zmiany klimatu nie zachodziły. Jest ona powodowana przede wszystkim wzrostem temperatur, ale również ich zmiennością oraz zmianami w opadach. Są jednak kraje, dla których ocieplenie klimatu jest ekonomicznie korzystne.

    Nasze analizy wykazały, że zmiana klimatu będzie powodowała olbrzymie straty ekonomiczne przez najbliższych 26 lat. Odczują to również kraje wysoko rozwinięte jak Niemcy, Francja czy Stany Zjednoczone. Te krótkoterminowe straty to skutek naszych emisji z przeszłości. Jeśli chcemy uniknąć niektórych z nich, powinniśmy się szybciej adaptować do zmian. Musimy też bardzo szybko i radykalnie zmniejszyć emisję gazów cieplarnianych. Jeśli tego nie zrobimy, straty będą jeszcze większe i do roku 2100 mogą wzrosnąć nawet do 60% globalnego dochodu, stwierdza główna autorka badań, Leonie Wenz. Z wyliczeń wynika, że już w najbliższych dwóch dekadach straty związane z globalnym ociepleniem będą średnio 6-krotnie wyższe, niż szacowane koszty radykalnej redukcji emisji.

    W swoich badaniach naukowcy oparli się na danych dotyczących wpływu zmian klimatu w ciągu ostatnich 40 lat na gospodarkę 1600 regionów świata. Na tej podstawie przygotowali prognozy do roku 2050.

    Nasze badania pokazują znaczącą nierównowagę we wpływie zmian. Stwierdziliśmy, że do strat dojdzie niemal we wszystkich krajach, ale najbardziej ucierpią państwa w tropikach, gdyż tam już jest cieplej. Dalszy wzrost temperatur będzie tam bardziej szkodliwy. Kraje najmniej odpowiedzialne za zmiany klimatu doświadczą strat o 60% większych niż kraje o wyższych dochodach i o 40% większych niż kraje o wyższej emisji. Są to jednocześnie kraje, które mają najmniej zasobów, by się dostosować, mówi współautor badań, Andreas Levermann.


    « powrót do artykułu

  21. Księżyc Jowisza, Io, to najbardziej aktywne pod względem wulkanicznym miejsce w Układzie Słonecznym. Naukowców z Kalifornijskiego Instytutu Technologiczno (Caltech), Uniwersytetu Kalifornijskiego w Santa Cruz (UCSC) oraz NASA interesowało, od jak dawna Io jest tak aktywny. Aby znaleźć odpowiedź, przeprowadzili pomiary izotopów siarki w gazowych formach SO2 i SO znajdujących się w atmosferze księżyca.

    Księżyce Io, Europa i Ganimedes krążą wokół Jowisza w rezonansie orbitalnym. Na każdą 1 orbitę ukończoną przez Ganimedesa, który jest najbardziej z nich trzech oddalony od planety, przypadają dokładnie 2 orbity Europy i 4 orbity Io. Księżyce wpływają na siebie nawzajem powodując, że ich orbity są eliptyczne. W związku z tym ciągłe zmiany siły oddziaływania Jowisza oraz oddziaływanie Ganimedesa i Europy powoduje, że Io jest ciągle rozciągany i ściskany, do wnętrza księżyca ciągle dostarczana jest energia, która obawia się niezwykle intensywnym wulkanizmem. Ta sama energia powoduje, że pod lodową powierzchnią Europy znajduje się ciekły ocean.

    Na Io nie ma wody, głównym składnikiem gazów wydobywających się podczas erupcji jest siarka. Dlatego też jego atmosfera składa się w 90% z dwutlenku siarki. W wyniku aktywności wulkanicznej gazy, które znajdują się przy powierzchni Io są ponownie wchłaniane do środka i ponownie wyrzucane do atmosfery. Atomy siarki na Io występują w kilku odmianach izotopowych. Mamy tam na przykład siarkę-32 i siarkę-34, które posiadają po 16 protonów, ale różnią się liczbą neutronów, których jest – odpowiednio – 16 i 18. Więcej neutronów powoduje, że atom jest cięższy. Z większym więc prawdopodobieństwem siarka-34 będzie gromadziła się przy powierzchni, a siarka-32 w górnych partiach atmosfery.

    W wyniku oddziaływania pola magnetycznego Jowisza Io traci atmosferę w tempie około 1 tony na sekundę. Ulatuje ona w przestrzeń kosmiczną. Jak wspomnieliśmy, w górnych partiach atmosfery gromadzi się siarka-32, więc ubywa jej nieproporcjonalnie dużo w porównaniu z siarką-34. Badając ile brakuje siarki-32 w stosunku do siarki-34 można policzyć, jak długo trwa wulkanizm na Io. Najpierw jednak trzeba wiedzieć, jaki był na początku stosunek obu izotopów do siebie.

    Z badań meteorytów, które są pozostałościami po okresie tworzenia się Układu Słonecznego, wiemy, że u zarania jego dziejów na 23 atomy siarki-32 przypadał 1 atom siarki-34. Jeśli nie zaszłyby żadne zmiany, to do dzisiaj na Io stosunek obu izotopów były identyczny. Okazało się jednak, że Io nie tylko stracił 94–99 procent siarki, ale doszło też do zmiany stosunku izotopowego, względnego wzrostu siarki-34 do siarki-32.

    Badania wykazały, że Io jest aktywny wulkanicznie od około 4,5 miliardów lat i przez cały te czas traci siarkę. To pokazuje, że Io, Europa i Ganimedes zaczęły krążyć w rezonansie orbitalnym wkrótce po tym, jak się uformowały. Wyniki tych badań są zgodne z teoretycznymi modelami opracowywanymi w ciągu ostatnich 20 lat, które pokazywały, że trzy najbardziej znane księżyce Jowisza musiały wejść w rezonans orbitalny bardzo szybko po powstaniu.

    Jowisz i jego księżyce to tylko jeden z wielu przykładów rezonansów księżyców i egzoplanet. Ogrzewanie pływowe generowane przez takie rezonansy jest głównym źródłem ciepła dla księżyców i może napędzać ich aktywność geologiczną. Io to najbardziej ekstremalny tego przykład, mówi profesor Katherine de Kleer z Caltechu.

    Naukowcy planują teraz przeprowadzenie badań, które odpowiedzą im na pytanie, jakie jeszcze inne gazy zostały utracone przez Io. Tutaj pojawia się niezwykle interesujące pytanie o wodę. Na Io jej nie ma, ale pozostałe księżyce galileuszowe Jowisza – Europa, Ganimedes i Kallisto – są jej pełne. Rodzi się więc pytanie, czy i Io nie posiadał w przeszłości wody.


    « powrót do artykułu

  22. Caltech poinformował właśnie, że przed rokiem wykrywacz fal grawitacyjnych LIGO zarejestrował sygnał GW230529 pochodzący ze zderzenia dwóch obiektów odległych od nas o 650 milionów lat świetlnych. Jednym była prawdopodobnie gwiazda neutronowa. Drugim zaś, znacznie bardziej interesującym naukowców, prawdopodobnie czarna dziura o masie 2,5–4,5 masy Słońca. Sygnał jest dlatego tak intrygujący, że masa tego drugiego obiektu mieści się w zakresie luki masy pomiędzy gwiazdami neutronowymi a czarnymi dziurami. Naukowcy wciąż starają się zrozumieć, co w tej luce się znajduje.

    Maksymalna masa gwiazd neutronowych jest nieco większa niż 2-krotna masa Słońca (M). Najlżejsze czarne dziury mają masę około 5 M. Naukowcy do niedawna nie wiedzieli, czy istnieją jakieś obiekty o masach pomiędzy najcięższymi gwiazdami neutronowymi, a najlżejszymi czarnymi dziurami, a jeśli istnieją, to czym takie obiekty są.

    Zarejestrowanie sygnału GW230529 pokazuje, że gwiazdy neutronowe i czarne dziury o niskiej masie mogą zderzać się częściej, niż sądziliśmy, mówi rzecznik prasowa LIGO, Jess McIver. Szczegółowe dane z badań zostały publicznie udostępnione.

    Dotychczas przechwycono tylko jeden podobny sygnał. W 2020 roku informowaliśmy, że wykrywacze LIGO-Virgo odnotowały fale grawitacyjne pochodzące z połączenia czarnej dziury o masie 23 M z obiektem o masie 2,6 M.


    « powrót do artykułu

  23. W materiałach ferromagnetycznych spiny grup elektronów zwrócone są w tym samym kierunku. Dotyczy to jednak poszczególnych regionów (domen magnetycznych), spiny pomiędzy domenami nie są uzgodnione. Wszystko się zmienia w obecności pola magnetycznego. Wówczas spiny wszystkich domen ustawiają się w tym samym kierunku. Zjawisko to nie zachodzi jednak jednocześnie, a przypomina lawinę, w której jedne domeny wpływają na drugie, aż ułożą się w tym samym kierunku.

    Istnienie takiej lawiny w magnesach zostało po raz pierwszy wykazane przez fizyka Heinricha Barkhausena w 1919 roku. Nawinął on cewkę na materiał o właściwościach magnetycznych i podłączył ją do głośnika. Wykazał, że zmiany magnetyzmu ujawniają się w postaci trzeszczącego dźwięku. Zjawisko to zostało nazwane szumem Barkhausena.

    Teraz naukowcy z Caltechu (California Institute of Technology) oraz University of British Columbia wykazali, że szum Barkhausena można zarejestrować nie tylko metodami klasycznymi, ale wykorzystując zjawiska z dziedziny mechaniki kwantowej. Ich osiągnięcie może znaleźć zastosowanie w budowie kwantowych czujników i innych urządzeń elektronicznych.
    Szum Barkhausena to wynik grupowego przełączania się malutkich magnesów. Przeprowadziliśmy ten sam eksperyment, który pokazywano wiele razy, ale wykorzystaliśmy w tym celu materiał kwantowy. Widzimy tutaj efekty kwantowe prowadzące do zmian w skali makroskopowej, wyjaśnia główny autor artykułu, Christopher Simon z Caltechu.

    Na gruncie fizyki klasycznej wspomniane przełączanie odbywa się dzięki temu, że cząsteczki chwilowo uzyskują wystarczająco dużo energii, by przeskoczyć ponad barierą potencjału. Amerykańsko-kanadyjski zespół wykazał właśnie, że zmiana kierunku spinów domen magnetycznych może dokonać się również za pomocą zjawiska kwantowego tunelowania. W procesie tym cząsteczki przedostają się na drugą stronę bariery potencjału, nie przeskakując nad nią. Naukowcy porównują to do piłeczki golfowej, która by znaleźć się po drugiej stronie wzgórza nie musiałaby przelatywać nad jego szczytem. W świecie kwantowym piłeczka nie musi przedostawać się nad wzgórzem, gdyż jest falą i jej część już jest po drugiej stronie wzgórza, dodaje Simon.

    Naukowcy wykorzystali fluorek litowo-holmowo-itrowy (LiHoxY1−xF4) schłodzony do temperatur od 90 mK do 580 mK (od 15 do 95 procent temperatury Curie). Wokół ferromagnetyka owinięto cewkę, włączyli pole magnetyczne i obserwowali krótkie skoki napięcia. Skoki te pokazywały, kiedy domeny zmieniały orientację spinu. Seria takich skoków napięcia to właśnie szum Barkhausena. Analizując go uczeni wykazali, że zmiana spinów miała miejsce również bez obecności zjawisk klasycznych i dowiedli, że odpowiedzialne były zjawiska kwantowe.


    « powrót do artykułu
    • Pozytyw (+1) 1

  24. Model GPT-4 znacząco lepiej diagnozuje choroby oczu od lekarzy, którzy w chorobach takich się nie specjalizują, dowodzi eksperyment przeprowadzony przez naukowców z University of Cambridge. Co więcej, jego zdolności diagnostyczne oraz proponowane rozwiązania zbliżają się do poziomu lekarzy-specjalistów w tej dziedzinie. Takie wnioski płyną z badań, w ramach których porównano GPT-4 z lekarzami-stażystami nie specjalizującymi się w chorobach oczu, lekarzami w trakcie specjalizacji oraz ze specjalistami chorób oczu.

    GPT-4 oraz lekarzom przedstawiono 87 scenariuszy związanych z chorobami oczu i poproszono o postawienie diagnozy lub zaproponowanie leczenia poprzez wybór jednej z czterech opcji. Model językowy uzyskał znacznie więcej punktów niż stażyści, którzy nie specjalizowali się w chorobach oczu oraz bardzo podobną liczbę punktów co lekarze w trakcie specjalizacji i okuliści. Jedynie najlepsi z okulistów byli wyraźnie lepsi od GPT-4.

    Zdaniem naukowców, sztuczna inteligencja nie zastąpi lekarzy, ale może znacząco usprawnić pracę służby zdrowia. Modele językowe mogą służyć poradą, sugerować diagnozy i leczenie, szczególnie tam, gdzie dostęp do specjalistów jest ograniczony.

    Możemy wykorzystać takie systemy do selekcjonowania pacjentów z chorobami oczu, by stwierdzić, który przypadek jest pilny i wymaga natychmiastowej konsultacji ze specjalistą, z którym poradzi sobie lekarz ogólny, a w którym wizyta u lekarza jest zbędna, mówi główny autor badań, doktor Arun Thirunavukarasu. Modele językowe mogą doradzać też lekarzom ogólnym, którzy mają problemy z zapisaniem swoich lekarzy do specjalistów. Obecnie w Wielkiej Brytanii na konsultacje okulistyczne czeka się dłużej niż kiedykolwiek, dodaje.


    « powrót do artykułu

  25. Świat fizyki ma kolejne powody do radości. Ledwie poinformowaliśmy o rozpoczęciu napełniania argonem ProtoDUNE, a dowiedzieliśmy się, że amerykański Departament Energii zezwolił na rozpoczęcie kolejnej fazy prac nad Zderzaczem Elektron-Jon (Electron-Ion Collider, EIC), urządzeniem, które będzie badało najpotężniejsze oddziaływania podstawowe we wszechświecie, a w które zaangażowani są też Polacy. Przejście do etapu zwanego „critical decision 3A” pozwala na dokonywanie zakupów wyposażenia, usług i materiałów potrzebnych do powstania EIC.

    W pracach nad EIC biorą udział naukowcy z 8 polskich instytucji: Akademia Górniczo-Hutnicza, Instytut Fizyki Jądrowej PAN, Narodowe Centrum Badań Jądrowych, Politechnika Krakowska, Politechnika Warszawska, Uniwersytet Jagielloński, Uniwersytet Rzeszowski i Uniwersytet Warszawski, które utworzyły Konsorcjum „The Polish Electron-Ion Collider Group". W NCBJ od dawna prowadzone są badania teoretyczne nad oddziaływaniami silnymi, a Polacy należą do światowej czołówki ekspertów w tej dziedzinie.

    Zderzacz Elektron-Jon powstanie w Brookhaven National Laboratory na bazie istniejącego tam Relativistic Heavy Ion Collider. Głównym elementem konstrukcji EIC będzie dodanie do RHIC dodatkowego pierścienia tak, by urządzenie składało się z dwóch krzyżujących się akceleratorów. W jednym z nich będą krążyły elektrony, w drugim proton lub jądra atomów. Koszt budowy nowego akceleratora ma wynieść 1,7–2,8 miliardów dolarów i jest to jedyny akcelerator zderzeniowy, jakiego budowa jest rozważana w USA w kontekście kolejnych 50 lat.

    Można postawić pytanie, czy światowa nauka na pewno potrzebuje kolejnego akceleratora. Wbrew pozorom, nie ma zbyt wielu takich urządzeń. Obecnie na świecie pracuje jedynie kilka akceleratorów zderzeniowych. Elektrony z pozytonami są zderzane w VEPP-5 (Nowosybirsk, Rosja), SuperKEKB (Tsukuba, Japonia), Dafne (Frascati, Włochy), BEPC II (Pekin, Chiny), natomiast jedyne zderzacze hadronów to RHIC (Nowy Jork, USA) i LHC (Francja/Szwajcaria).

    W EIC ma dochodzić do zderzeń protonów z elektronami. Badanie wyników zderzeń pozwoli na poznanie struktury wewnętrznej protonu, ma dać odpowiedź na pytanie, skąd bierze się spin protonu oraz wyjaśnić właściwości gluonów.

    Obecnie bardzo słabo rozumiemy wewnętrzną strukturę protonów. Wiemy, że proton składa się z trzech kwarków połączonych oddziaływaniami silnymi. Jednak jako, że wkraczamy tutaj na pole fizyki kwantowej, pozostaje wiele niepewności. Wewnątrz protonu pojawiają się i znikają pary kwark-antykwark, ważną rolę odgrywają też gluony, łączące wszystko w całość. Jednak pozostaje jeszcze do wyjaśnienia wiele tajemnic. Na przykład trzy kwarki tworzące proton stanowią mniej niż 5% jego masy. Reszta masy pojawia się w jakiś sposób z energii wirtualnych kwarków i gluonów. Nie wiemy też, skąd się bierze spin protonu. Nie jest on prostą sumą spinów trzech kwarków. Znaczenie mają również gluony oraz orbitujące wokół siebie kwarki. Niewiele wiemy o samych gluonach. Zgodnie z niektórymi teoriami, łączą się one w pojedynczą falę kwantową.

    EIC znacznie bardziej nadaje się do tego typu badań, niż Wielki Zderzacz Hadronów, w którym protony zderzane są z protonami. W EIC wykorzystywane będą znacznie mniejsze od protonów elektrony, co da łatwiejsze do interpretacji wyniki.

    Obecny plan zakłada, że prace konstrukcyjne EIC rozpoczną się w kwietniu przyszłego roku, a w czerwcu 2025 zostanie wyłączony RHIC. EIC ma zacząć pracę w pierwszej połowie przyszłej dekady.


    « powrót do artykułu
×
×
  • Dodaj nową pozycję...