Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Celiakia zwiększa ryzyko zachorowania na gruźlicę

Rekomendowane odpowiedzi

U osób z celiakią występuje zwiększone ryzyko zachorowania na gruźlicę.

Celiakia, czyli choroba trzewna, jest wywoływana przez nietolerancję glutenu. W Polsce choruje na nią jedno na 15 tys. dzieci. Nieżyt żołądkowo-jelitowy oraz zanik kosmków jelitowych są skutkami dostarczania organizmowi glutenu. Glutenem nazywa się łącznie kilka (4) rozpuszczalnych w alkoholu frakcji białek. Należą do nich gliadyna z pszenicy, sekalina znajdująca się w życie, hordeina z jęczmienia, a także owsiana awenina.

Szwedzcy naukowcy prześledzili dokumentację szpitalną z lat 1964-2003 i odkryli, że pacjenci z celiakią z większym prawdopodobieństwem zapadali na gruźlicę.

Celiakia jest związana z gruźlicą — twierdzi dr Jonas Ludvigsson ze szpitala Orebro University.

Ryzyko wystąpienia gruźlicy u pacjentów z chorobą trzewną jest 3-4 razy wyższe, co więcej, jest widoczne nawet po uwzględnieniu wieku i płci — dodaje Ludvigsson w artykule opublikowanym na łamach magazynu Thorax.

Zespół Ludvigssona postanowił także zbadać odwrotną zależność: czy osoby z gruźlicą mają większą szansę na zachorowanie na celiakię. Okazało się, że uprzednie stwierdzenie gruźlicy podwaja ryzyko wystąpienia choroby trzewnej.

Gruźlicę leczy się antybiotykami, jedyną szansą dla chorych na celiakię jest zaś rygorystyczne przestrzeganie diety bezglutenowej.

Naukowcy sugerują, że brakującym elementem, który łączy obie choroby, jest witamina D. Z powodu zaburzonego wchłaniania z jelit, a także wspomnianej wyżej diety osoby z celiakią cierpią na jej niedobory. Zbyt mała ilość witaminy D, która wpływa na reakcję układu odpornościowego, zwiększa natomiast podatność na gruźlicę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość Grażyna

..." Na podstawie populacyjnych testów przesiewowych wykonanych za pomocą testów serologicznych szacuje się, iż celiakia występuje z częstością przynajmniej 1:250. Prawdopodobnie częstość celiakii może być jeszcze wyższa; użycie innych protokołów rekrutacyjnych i diagnostycznych spowodowało, iż w trzech niezależnie przeprowadzonych badaniach populacji szwedzkiej, węgierskiej i fińskiej częstość celiakii oscylowała ok. 1:100." ...

Jest to fragment artykułu prof. dr hab. n. med. Jerzego Kruszewskiego; Alergia 1/8 2001.

Podobna częstotliwość występowania celiakii podawana jest w innych artykułach (np "Celiakia - zapomniana choroba u dzieci i dorosłych" dr med. Krystyna Stec-Michalska, prof. dr hab.med. Jan Chojnacki; Terapia NR 6 (167), czerwiec 2005) oraz w książkach o celiakii np. "Dieta bezglutenowa co wybrać?" pod redakcją Hanny Kunachowicz; Wydawnictwo Lekarskie PZWL.

 

1 osoba na sto (czy nawet na 250), a jedna osoba na piętnaście tysięcy to ogromna różnica!

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Nieodpowiednia dieta była przyczyną 14,1 milionów zachorowań na cukrzycę typu 2. w 2018 roku, informują naukowcy z Tufts University. Na podstawie stworzonego przez siebie modelu dotyczącego zwyczajów dietetycznych mieszkańców 184 krajów, uczeni uznali, że złe odżywianie się odpowiada za 70% nowych przypadków cukrzycy typu 2. Badania, w których uwzględniono dane z lat 1990–2018 zostały opublikowane na łamach Nature Medicine. Autorom badań udało się określić te zwyczaje żywieniowe, które w największym stopniu przyczyniają się do rozwoju cukrzycy.
      Uwzględnili w swoich badaniach 11 czynników powiązanych z dietą i stwierdzili, że 3 z nich odgrywają nieproporcjonalnie dużą rolę w rozwoju cukrzycy. Są nimi niedostateczne spożycie pełnego ziarna, zbyt duże spożycie oczyszczonego ryżu i pszenicy oraz zbyt duże spożycie przetworzonego mięsa. Mniejszy wpływ na rozwój choroby miało spożywanie zbyt dużych ilości soków owocowych, zbyt małych ilości warzyw zawierających niewiele skrobi oraz orzechów i nasion.
      Nasze badania sugerują, że zła jakość węglowodanów w diecie to główna przyczyna rozwoju cukrzycy typu 2., mówi profesor Dariush Mozaffarian, jeden z głównych autorów badań.
      Naukowcy zauważyli, że we wszystkich 184 badanych krajach doszło w latach 1990–2018 do wzrostu zachorowań na cukrzycę typu 2. Ma to niekorzystny wpływ na całe społeczeństwo, od osób chorych, poprzez ich rodziny, po systemy opieki zdrowotnej.
      Analiza wykazała też, że zła dieta jest częściej przyczyną zachorowań na cukrzycę wśród mężczyzn niż kobiet, wśród osób młodszych niż starszych i wśród mieszkańców miast niż wsi. Największy wzrost zachorowań notuje się w Europie Środkowej i Wschodniej oraz Azji Centralnej. Niechlubne rekordy dzierżą tutaj Polska i Rosja, gdzie dieta pełna jest czerwonego mięsa, mięsa przetworzonego oraz ziemniaków. To właśnie w tych krajach zanotowano największy odsetek przypadków cukrzycy typu 2. powiązanych z nieprawidłową dietą. Drugim obszarem częstych zachorowań jest Ameryka Łacińska i Karaiby, szczególnie Kolumbia i Meksyk. Tam za zachorowania odpowiadają głównie słodzone napoje, przetworzone mięso oraz niskie spożycie pełnych ziaren.
      Regionami, w których dieta ma mały wpływ na cukrzycę typu 2. są kraje Azji Południowej i Afryki Subsaharyjskiej, a z 30 najbardziej zaludnionych krajów świata najmniej przypadków cukrzycy powiązanej z dietą występuje w Indiach, Nigerii i Etiopii.
      Z innych ostatnio publikowanych analiz podobnego typu dowiadujemy się, że zła dieta odpowiada za 40% przypadków cukrzycy typu 2. Autorzy nowych badań mówią, że różnica wynika z faktu, iż w swojej analizie jako pierwsi uwzględnili rafinowane ziarna, a ponadto wykorzystali nowsze dane pochodzące m.in. z badań zwyczajów dietetycznych poszczególnych osób, a nie tylko z danych na temat produkcji rolnej w różnych krajach.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Jeden z mitów dietetycznych głosi, że osoby, które więcej jedzą wieczorami, są bardziej podatne na przybranie na wadze i mają mniejszą szansę na jej zrzucenie. Badania przeprowadzone przez profesorów Alexandrę Johnstone z University of Aberdeen i Jonathana Johnstona z University of Surrey dowodzą, że energia z pożywienia jest podobnie użytkowana, niezależnie od tego, jak w ciągu dnia rozłożymy sobie liczbę spożywanych kalorii. Innymi słowy, bez samego ograniczenia liczby spożywanych kalorii nie powinniśmy liczyć na schudnięcie.
      Analizy zwyczajów dotyczących odżywiania się wskazują, że wiele osób większość kalorii spożywanych w ciągu dnia przyjmuje wieczorem. Johnstone i Johnston opublikowali właśnie na łamach Cell Metabolism pierwsze brytyjskie badania, w ramach których porównano wpływ spożywania większości dziennej dawki kalorii w ramach śniadań z ich spożywaniem w ramach kolacji.
      W badaniach wzięło udział 30 ochotników. Wszyscy oni mieli nadwagę lub byli otyli, jednak poza tym byli zdrowi. Badani przez 10 tygodni żywili się wyłącznie tym, co dostarczali im naukowcy.
      Przez pierwszy tydzień ochotnicy spożywali dietę potrzebną do utrzymania wagi. Otrzymywali 1,5 raza więcej kalorii niż wynosiło ich zapotrzebowanie energetyczne w czasie odpoczynku. Liczbę tę ustalono indywidualnie dla każdego z badanych. To standardowa liczba kalorii potrzebna do podtrzymania codziennych czynności życiowych. Kalorie były równomiernie rozłożone pomiędzy trzema posiłkami dziennie.
      Przez kolejne 4 tygodnie uczestnicy badań byli podzieleni na 2 grupy. W jednej z nich znalazło się 14 osób, które 45% dziennej dawki kalorii zjadały na śniadanie, 35% na obiad i 20% na kolację. w grupie drugiej było 16 osób, które na śniadanie zjadały 20% dawki kalorii, na obiad otrzymywały 35%, a na kolację zjadały 45% kalorii. Tutaj każdy z badanych otrzymał tyle kalorii, ile potrzebował jego organizm w czasie odpoczynku. Z tłuszczu pochodziło 35% kalorii, 30% dostarczano z białek, a 35% z węglowodanów.
      Po czterech tygodniach obie grupy jadły tak, jak w pierwszym tygodniu, a następnie – na ostatnie 4 tygodnie – zamieniono im dietę, czyli osoby, które wcześniej były w grupie jedzącej duże śniadania, trafiły do grupy jedzącej duże kolacje.
      Po każdym z czterotygodniowych etapów – przypomnijmy, że w ich trakcie badani otrzymywali tylko tyle kalorii, ile wynosiło ich zapotrzebowanie w czasie spoczynku – uczestników badania ważono. Okazało się, że osoby, które jadły większe śniadania niż kolacje straciły średnio 3,33 kg, a osoby jedzące większe kolacje niż śniadania straciły średnio 3,38 kg.
      Mimo, że różny rozkład kalorii w ciągu dnia nie wpływał na utratę wagi, to naukowcy zauważyli inną istotną rzecz. Osoby, które jadły większe śniadania czuły się bardziej najedzone przez resztę dnia. Przez ostatnie trzy dni każdej z diet badanym kilkukrotnie w ciągu dnia dawano do wypełnienia ankietę, w której swój poziom głodu oceniali na skali od O do 100, gdzie 0 oznaczało w pełni najedzony. Badani, gdy jedli duże śniadanie oceniali średnio swój poziom głodu na 30, a podczas jedzenia dużych kolacji – na 33. Jedzenie dużych śniadań wiązało się też z mniejszą chęcią na sięgnięcie po coś do zjedzenia, niższym poziomem stymulującego apetyt hormonu greliny i wyższymi poziomami hormonów odpowiedzialnych za uczucie najedzenia.
      To ważne badania, gdyż obala przekonanie, że różny rozkład liczby kalorii w ciągu dnia prowadzi do różnic w wydatkowaniu energii. Zasadniczym elementem odchudzania się, jest kontrola apetytu. Nasze badania sugerują, że osoby jedzące więcej kalorii na śniadanie, czują się bardziej najedzone, niż gdy jedzą więcej kalorii na kolację – stwierdzają autorzy badań.
      Spożywanie większej liczby kalorii na śniadanie a nie na kolację, może być dobrą strategią jeśli chcemy stracić na wadze, ale nie dlatego, że organizm w inny sposób korzysta z energii, ale dlatego, że czujemy się mniej głodni, więc możemy rzadziej podjadać.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wymioty nudności, ból brzucha, dzwonienie w uszach, pragnienie, biegunka, skurcze mięśni nóg oraz duża utrata wagi (12,7 kg) to objawy, z którymi do lekarza zgłosił się mężczyzna w średnim wieku. Jak się okazało, dolegliwości spowodowane były przedawkowaniem witaminy D, której przyjmowanie – wśród innych suplementów – zalecił mężczyźnie dietetyk. Przypadek opisano w British Medical Journal Case Reports.
      Mężczyzna, który cierpiał na wiele schorzeń, w tym na gruźlicę kręgosłupa pochodzenia krowiego czy niezłośliwy nowotwór nerwu przedsionkowo-ślimakowego, za radą dietetyka zaczął przyjmować suplementy. Przyjmował ich ponad 20, w tym witaminę D (375 µg, dzienne zapotrzebowanie do 10 µg), K2, C, B2, B6, selen, cynk i wiele innych. Miesiąc po rozpoczęciu ich przyjmowania pojawiły się nieprzyjemne objawy, które nie ustąpiły mimo odstawienia suplementów.
      Przeprowadzone badania krwi wykazały, że pacjent miał bardzo wysoki poziom wapnia oraz nieco podwyższony poziom magnezu. A poziom witaminy D był 7-krotnie wyższy, niż norma. Okazało się również, że doszło do poważnego uszkodzenia nerek.
      Mężczyzna pozostał w szpitalu przez 8 dni, w tym czasie podawano mu dożylnie płyny mające oczyścić organizm oraz leczono bisfosfonianami, używanymi do obniżenia poziomu wapnia we krwi.
      Dwa miesiące po wyjściu ze szpitala poziom wapnia we krwi powrócił do normy, ale poziom witaminy D pozostał wysoki. Na całym świecie mamy do czynienia z hiperwitaminozą D, objawiającą się podwyższonym poziomem witaminy D3 w serum, piszą autory raportu. Najbardziej narażone na hiperwitaminozę są kobiety, dzieci oraz osoby po zabiegach chirurgicznych.
      Odpowiedni poziom witaminy D można zapewnić sobie dietą, spożywając grzyby czy tłuste ryby, dzięki ekspozycji na Słońce oraz za pomocą suplementów. Przedawkowanie witaminy D, jak widać, może mieć nieprzyjemne, długotrwałe skutki. Jako, że poziom witaminy D spada powoli – o połowę w ciągu mniej więcej 2 miesięcy – objawy zatrucia mogą utrzymywać się przez długi czas. A są one bardzo zróżnicowane i w dużej mierze spowodowane podwyższonym poziomem wapnia. Wśród objawów hiperwitaminozy D znajdziemy problemy z nerkami, wysokie ciśnienie, bóle brzucha, pocenie się, apatię, psychozę, sztywność stawów czy głuchotę.
      Wiele z objawów jest jeszcze nie do końca rozpoznanych, gdyż hiperwitaminoza D wciąż zdarza się rzadko, jednak liczba jej przypadków rośnie.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Autorzy badań przedklinicznych informują o odkryciu nowej klasy leków, które mogą zwalczać antybiotykooporne szczepy Mycobacterium tuberculosis. Konieczne będą dalsze badania, ale niska dawka efektywna i wysokie bezpieczeństwo, jakie zauważyliśmy we wstępnych testach wskazują, że nowe leki mogą być realną alternatywą dla obecnie stosowanych metod walki z gruźlicą, mówi współautor badań doktor Ho-Yeon Song z Soonchunhyang University w Korei Południowej.
      Naukowcy przyjrzeli się wielu związkom roślinnym, poszukując wśród nich takich, które zwalczałyby M. tuberculosis. Z korzeni obojnika z gatunku Cynanchum atratum, który używany jest w chińskiej medycynie, wyizolowali związek o nazwie deoxypergularinine (DPG). W trakcie poprzednich badań wykazali, że hamował on działanie nie tylko zwykłego M. tuberculosis, ale również szczepów opornych na działanie leków. Dowiedli też, że połączenie tego związku ze standardowymi lekami zmniejszyło minimalne dawki leków potrzebnych do zwalczania szczepu H37Ra.
      Teraz naukowcy opracowali i przetestowali liczne analogi DPG. Zidentyfikowali całą klasę środków pochodnych (PP) zawierających w strukturze grupy fenantrenowe i pirolidynowe, które efektywnie zwalczają M. tuberculosis wykazując przy tym minimalną toksyczność dla komórek. Okazało się, że środki te są efektywne w niższych stężeniach niż obecnie stosowane leki. Mają więc większy potencjał zwalczania szczepów antybiotykoopornych.
      W ramach eksperymentów przez 4 tygodnie leczyli trzema pochodnymi – PP1S, PP2S i PP3S – szczury zainfekowane gruźlicą i wykazali skuteczność tych środków w porównaniu ze zwierzętami nieleczonymi. Ponadto dowiedli, że po 2 tygodniach podawania wysokich dawek i 4 tygodniach stosowania dawek średnich, u zwierząt nie wystąpiły skutki uboczne.
      Niezwykle istotnym odkryciem było spostrzeżenie, że wspomniane środki pochodne nie wpływają negatywnie na mikrobiom. Antybiotyki zwykle niszczą florę bakteryjną jelit. Tymczasem testowane środki miały minimalny wpływ na mikrobiom zwierząt.
      Uczeni przeprowadzili też badania in vitro, by sprawdzić, w jaki sposób badane środki zwalczają M. tuberculosis. Okazało się, że biorą one na cel gen PE-PGRS57, który występuje jedynie u tej bakterii. To wyjaśnia wysoką selektywność oraz skuteczność nowych leków.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Przed przybyciem wikingów niewielu mieszkańców Wysp Brytyjskich jadło duże ilości mięsa. Brak też dowodów, by anglosaskie elity spożywały go więcej, niż wieśniacy, stwierdzają autorzy najnowszych badań. Wszystko wskazuje na to, że władcy Wysp żywili się głównie dietą wegetariańską, chociaż od czasu do czasu wieśniacy urządzali dla nich wystawne mięsne uczty.
      Popularne wyobrażenia o władcach dawnych królestw znajdujących się na Wyspach Brytyjskich rysują nam obraz elity zasiadającej przy suto zastawionych stołach. Nawet historycy od dawna utrzymują, że w czasach anglosaskich członkowie rodów królewskich i inni szlachetnie urodzeni spożywali znacznie więcej mięsa niż reszta mieszkańców, a wolni chłopi musieli przez cały rok dostarczać im duże ilości pożywienia w ramach systemu podatkowego zwanego feorm.
      Na łamach pisma Anglo-Saxon England ukazały się właśnie artykuły pod wielce znaczącymi tytułami Food and Power in Early Medieval England: Rethinking Feorm i Food and Power in Early Medieval England: a lack of (isotopic) enrichment.
      Wszystko zaczęło się od wykładu ówczesnej doktorantki bioarcheologii Sam Leggett z University of Cambridge. Przeanalizowała ona sygnatury izotopów znalezione w kościach 2023 osób pochowanych w Anglii pomiędzy V a XI wiekiem. Następnie porównała te sygnatury z dowodami na status społeczny zmarłych, takimi jak dobra grobowe, pozycja ciała i orientacja grobu. Na podstawie swoich badań stwierdziła, że nie istnieje korelacja pomiędzy statusem społecznym, a dietą bogatą w białko. Prezentacja zaintrygowała historyka Toma Lamberta. Wiedział on bowiem, że wiele średniowiecznych tekstów oraz badań naukowych wskazuje, iż anglosaskie elity spożywały olbrzymie ilości mięsa.
      Lambert i Leggett rozpoczęli więc wspólny projekt badawczy, by dowiedzieć się, jak było naprawdę. Uczeni zaczęli od odczytania listy pożywienia skompilowanej za czasów króla Wesseksu, Ine (688–726). Był on jednym z największych władców przed Alfredem Wielkim. Jego dziełem jest m.in. pierwszy zbiór praw, który miał duży wpływ na kształtowanie się angielskiego społeczeństwa.
      Naukowcy dokładnie przeanalizowali listę, by dowiedzieć się, ile pożywienia na niej zapisano i jaka była jego wartość kaloryczna. Stwierdzili, że na liście znajduje się pożywienie o łącznej zawartości 1,24 miliona kalorii, z czego połowę stanowi białko zwierzęce. Wymieniono tam 300 bochenków chleba (o wadze 300 g każdy), więc naukowcy założyli, że każdy z uczestników uczty otrzymał 1 bochenek, zatem na liście znajduje się pożywienie dla 300 osób. Z przeliczenia wynikało, że każdy z gości mógł zjeść 0,7 kg baraniny, wołowiny i drobiu, niemal 0,4 kg łososia i węgorza. Podano też po ok. 150 gramów sera i masła, 200 gramów miodu oraz 2,1 litra piwa na głowę. W sumie każdy z gości spożył 4140 kcal. Następnie uczeni przeanalizowali 10 podobnych list z południa Anglii i zauważyli ten sam wzorzec: umiarkowana ilość pieczywa, duża ilość mięsa, dość sporo piwa oraz żadnych wzmianek o warzywach.
      Jednak, jak podkreślają uczeni, skala i proporcje tych dostaw wskazują, że było to pożywienie na okazjonalne, wielkie uczty, a nie zwykłe dostawy żywności dla domu królewskiego. Wbrew temu, co dotychczas sądzono, nie był to standardowy spis dostaw.
      Doktor Sam Leggett dodaje, że nie znalazła żadnych dowodów, by ci ludzie codziennie jedli tak duże ilości mięsa. Jeśli by tak było, to znaleźlibyśmy izotopowe dowody na nadmiar protein, a w kościach widoczne byłyby ślady schorzeń takich jak dna moczanowa. Niczego takiego nie stwierdziliśmy. Wręcz przeciwnie, wszystkie dowody wskazują na to, że w czasach anglosaskich codzienna dieta wszystkich warstw społecznych była do siebie bardziej podobna, niż nam się wydaje. Ludzie jedli głównie pieczywo, niewiele mięsa i sera, zupy jarzynowe z pełnymi ziarnami i niewielką ilością mięsa. Również dieta królów opierała się głównie na zbożach. I nawet dla nich okazją do zjedzenia większej ilości mięsa były uczty organizowane przy wyjątkowych okazjach. Musiały być to duże wydarzenia społeczne, podczas których na rożnach pieczono całe woły. We wschodniej Anglii znaleziono ślady takich palenisk. Jednak nie tylko królowie brali udział w tych bogatych biesiadach.
      Generalnie uważa się, że średniowieczne uczty były zarezerwowane dla elity. Jednak te listy pokazują, że w ucztach musiało uczestniczyć co najmniej 300 osób. A to oznacza, że brało w nich udział wielu chłopów. Uczty te miały olbrzymie znaczenie polityczne, wyjaśnia Lambert. Historyk zajął się też samym terminem feorm. Obecnie uważa się, że oznacza on rentę w naturze płaconą władcom przez wolnych chłopów. Renta ta, w ramach której chłopi dostarczali na dwór m.in. produkty rolne, miała być głównym źródłem pożywienia dworu królewskiego. Z czasem, gdy królestwa się rozrastały, przywilej pobierania takiej renty przyznawano lokalnym elitom, wzmacniając ich więź z dworem.
      Lambert zbadał znaczenie słowa feorm w różnych kontekstach i doszedł do wniosku, że wyraz ten odnosi się do uczty, a nie do formy podatku. To niezwykle ważne spostrzeżenie. Zapłata narzuconego z góry podatku nie wymaga bowiem osobistej obecności władcy czy feudała i nie ma związku z okazywaniem przez niego szacunku chłopom. Jednak feorm rozumiany jako wspólna uczta, zupełnie zmienia dynamikę relacji feudał-chłop. Mamy tutaj bowiem zarówno osobiste zaangażowanie władcy w relację z poddanym, jak i okazję do podziękowania poddanym za służbę. Wyobraźmy sobie władców podróżujących, by wziąć udział w wielkich ucztach organizowanych przez wolnych chłopów, ludzi posiadających własną ziemię, a czasem i niewolników. Można by to porównać do obiadów, jakie kandydaci na prezydenta USA wydają w czasie kampanii wyborczej. Miało to olbrzymie znaczenie polityczne, wyjaśnia Lambert.
      Taka zmiana rozumienia terminu feorm ma daleko idące znaczenie dla badań nad historią średniowiecza i całością historii politycznej Anglii. Rzuca bowiem nowe światło na kwestie związane z początkami rozwoju systemu monarchistycznego Anglii, polityki opierającej się na patronacie i własności ziemskiej, jest też ważnym elementem w dyskusji nad przyczynami zniknięcia klasy wolnych chłopów.
      Legett i Lambert czekają teraz na wyniki badań izotopowych z Winchester Mortuary Chests, gdzie prawdopodobnie spoczywają król Wesseksu Egbert (IX w.), Knut Wielki (XI w.) i inni anglosascy władcy.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...