Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Po raz pierwszy biologom udało się zarejestrować wydarzenie jedyne w swoim rodzaju: akt zjadania meduz przez drapieżne koralowce. W zwykłych okolicznościach organizmy te odżywiają się raczej planktonem i dostarczanymi przez glony produktami fotosyntezy (Coral Reefs).

Na zdjęciach można zobaczyć, jak Fungia scruposa konsumuje chełbię modrą (Aurelia aurita). Wg naukowców, rozszerzenie menu o krążkopławy to ważny krok na drodze do lepszego przystosowania się do zmieniających się warunków środowiskowych. Dzięki temu dieta zostaje uzupełniona o pokaźną porcję białka.

Zapierające dech w piersiach fotografie zostały wykonane w marcu br. przez Omriego Bronsteina z Uniwersytetu w Tel Awiwie oraz Gala Dishona z Uniwersytetu Bar-Ilan podczas nurkowania w Morzu Czerwonym w okolicach Ejlatu.

Prądy oceaniczne i obfitość składników odżywczych sprzyjały rozmnażaniu się chełbi, dlatego na rafie dosłownie się od nich roiło. Gdy naukowcy zobaczyli, że niektóre koralowce aktywnie pożywiały się meduzami, nie mogli uwierzyć własnym oczom. Chełbia stanowi pokarm różnych drapieżników, w tym ryb, żółwi i ptaków morskich, nikt nie miał jednak pojęcia, że należą do nich również koralowce. To pierwszy przypadek utrwalenia przypadku zjadania przez koralowca meduzy niemal dorównującej mu rozmiarami – podkreśla Ada Alamaru, doktorantka z Uniwersytetu w Tel Awiwie.

Normalnie koralowce żywią się mikroskopijnymi organizmami wchodzącymi w skład planktonu, które mierzą między 0,2 a 0,4 mm. Korzystają także z produktów fotosyntetyzowanych przez żyjące z nimi w symbiozie glony. Nigdy wcześniej nie widziano jednak, by zjadały dorosłe chełbie. To zdecydowanie niezwykłe zachowanie. O ile wiem, nie wspominano o tym, by jakiś inny gatunek korala żywił się krążkopławami. Postępują tak jednak spokrewnione z nimi ukwiały.

F. scruposa nie żyje w koloniach. Pojedyncze polipy mają nawet do 30 cm średnicy. Nie są przytwierdzone do dna morskiego, przez co dysponują ograniczoną zdolnością do poruszania się. Nadal nie wiadomo, jak radzą sobie z chwytaniem meduz – podkreśla Alamaru.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Analizy przeprowadzone za pomocą algorytmów sztucznej inteligencji wskazują, że metabolity diety są głównym winowajcą rozwoju nowotworów jelita grubego u dorosłych poniżej 60. roku życia. Szczególnie silny wpływ mają metabolity czerwonego mięsa i mięsa przetworzonego. Uzyskane wyniki są o tyle istotne, że od dłuższego czasu notuje się wzrost liczby nowotworów u młodszych osób, a badania na obecność metabolitów są znacznie łatwiejsze i tańsze niż badania kolonoskopowe. Okazuje się więc, że ważnym czynnikiem zmniejszającym ryzyko nowotworów jelita grubego może być zmiana diety.
      U osób poniżej 60. roku życia byłoby niepraktycznym stosowanie metod, które proponujemy osobom starszym. Łatwiejsze od tego typu badań przesiewowych jest wykonanie prostego testu z krwi, który zmierzy biomarkery metabolitów. Wówczas osoby narażone na największe ryzyko można będzie skierować na dokładniejsze badania, mówi jeden z autorów badań, onkolog układu pokarmowego Suneel Kamath.
      Uczeni z Center for Young-Onset Colorectal Cancer w Cleveland Clinic prowadzą wielkoskalowe analizy danych dwóch grup pacjentów. Jednej, leczonej z powodu nowotworu jelita grubego, który wystąpił u nich w wieku młodszym niż średnia dla tej choroby, oraz grupy, u której nowotwór zdiagnozowano w wieku typowym dla jego występowania. Badacze już wcześniej zidentyfikowali różnice w metabolitach pomiędzy obiema grupami, a inna grupa naukowa zauważyła, że u obu grup występują też różnice w mikrobiomie jelit. Wiemy jednak, że na ryzyko wystąpienia nowotworów wpływa wiele czynników, dlatego też bardzo trudno jest określić, które z nich mogą odgrywać najważniejszą rolę i pod tym kątem zaplanować kolejne badania. jakby tego było mało, bakterie mikrobiomu spożywają nasze metabolity i wytwarzają własne, co dodatkowo zaciemnia obraz.
      Doktor Naseer Sangwan, dyrektor Microbial Sequencing & Analytics Resource Core, który był jednym z kierowników grupy badawczej, zaprzągł do pracy algorytm sztucznej inteligencji. Jego zadaniem było przeanalizowanie danych z dotychczas prowadzonych badań i określenie, które czynniki stwarzają największe ryzyko, zatem na badaniu których należy się skupić.
      Okazało się, ku zaskoczeniu badaczy, że głównym czynnikiem z powodu którego w jednej grupie nowotwór jelita grubego pojawia się szybciej niż średnia, była dieta. Badacze coraz intensywniej badają mikrobiom. Tymczasem z naszych badań wynika, że chodzi o dietę. Już wcześniej wiedzieliśmy, że metabolity odgrywają główną rolę, teraz więc możemy prowadzić badania w odpowiednim kierunku, mówi Sangwan. Fakt, że winowajcą jest dieta ma tę zaletę, że badania metabolitów z krwi są znacznie łatwiejsze niż analiza DNA mikroorganizmów występujących w jelitach. Ponadto bardzo trudno jest zmienić mikrobiom. Co prawda zmiana diety również nie zawsze jest łatwa, ale jest znacznie łatwiejszym rozwiązaniem jeśli chcemy zapobiec nowotworowi, wyjaśnia doktor Kamath.
      U osób, które w młodszym wieku zachorowały na raka jelita grubego, zaobserwowano większe stężenie metabolitów związanych z przetwarzaniem argininy oraz cyklem mocznikowym, niż u pacjentów, u których choroba wystąpiła później. Te różnice są prawdopodobnie powiązane z długotrwałą konsumpcją czerwonego mięsa oraz mięsa przetworzonego. Naukowcy, by sprawdzić swoje przypuszczenia, prowadzą obecnie analizy dotyczące zachorowań na terenie całego kraju. Jeśli potwierdzą, że metabolity argininy i cyklu mocznikowego – i co za tym idzie nadmierne spożycie czerwonego mięsa i mięsa przetworzonego – odpowiadają za wczesne ryzyko rozwoju raka jelita grubego, rozpoczną badania nad dietami i dostępnymi już lekami, za pomocą których będzie można regulować wspomniane metabolity.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Nieodpowiednia dieta była przyczyną 14,1 milionów zachorowań na cukrzycę typu 2. w 2018 roku, informują naukowcy z Tufts University. Na podstawie stworzonego przez siebie modelu dotyczącego zwyczajów dietetycznych mieszkańców 184 krajów, uczeni uznali, że złe odżywianie się odpowiada za 70% nowych przypadków cukrzycy typu 2. Badania, w których uwzględniono dane z lat 1990–2018 zostały opublikowane na łamach Nature Medicine. Autorom badań udało się określić te zwyczaje żywieniowe, które w największym stopniu przyczyniają się do rozwoju cukrzycy.
      Uwzględnili w swoich badaniach 11 czynników powiązanych z dietą i stwierdzili, że 3 z nich odgrywają nieproporcjonalnie dużą rolę w rozwoju cukrzycy. Są nimi niedostateczne spożycie pełnego ziarna, zbyt duże spożycie oczyszczonego ryżu i pszenicy oraz zbyt duże spożycie przetworzonego mięsa. Mniejszy wpływ na rozwój choroby miało spożywanie zbyt dużych ilości soków owocowych, zbyt małych ilości warzyw zawierających niewiele skrobi oraz orzechów i nasion.
      Nasze badania sugerują, że zła jakość węglowodanów w diecie to główna przyczyna rozwoju cukrzycy typu 2., mówi profesor Dariush Mozaffarian, jeden z głównych autorów badań.
      Naukowcy zauważyli, że we wszystkich 184 badanych krajach doszło w latach 1990–2018 do wzrostu zachorowań na cukrzycę typu 2. Ma to niekorzystny wpływ na całe społeczeństwo, od osób chorych, poprzez ich rodziny, po systemy opieki zdrowotnej.
      Analiza wykazała też, że zła dieta jest częściej przyczyną zachorowań na cukrzycę wśród mężczyzn niż kobiet, wśród osób młodszych niż starszych i wśród mieszkańców miast niż wsi. Największy wzrost zachorowań notuje się w Europie Środkowej i Wschodniej oraz Azji Centralnej. Niechlubne rekordy dzierżą tutaj Polska i Rosja, gdzie dieta pełna jest czerwonego mięsa, mięsa przetworzonego oraz ziemniaków. To właśnie w tych krajach zanotowano największy odsetek przypadków cukrzycy typu 2. powiązanych z nieprawidłową dietą. Drugim obszarem częstych zachorowań jest Ameryka Łacińska i Karaiby, szczególnie Kolumbia i Meksyk. Tam za zachorowania odpowiadają głównie słodzone napoje, przetworzone mięso oraz niskie spożycie pełnych ziaren.
      Regionami, w których dieta ma mały wpływ na cukrzycę typu 2. są kraje Azji Południowej i Afryki Subsaharyjskiej, a z 30 najbardziej zaludnionych krajów świata najmniej przypadków cukrzycy powiązanej z dietą występuje w Indiach, Nigerii i Etiopii.
      Z innych ostatnio publikowanych analiz podobnego typu dowiadujemy się, że zła dieta odpowiada za 40% przypadków cukrzycy typu 2. Autorzy nowych badań mówią, że różnica wynika z faktu, iż w swojej analizie jako pierwsi uwzględnili rafinowane ziarna, a ponadto wykorzystali nowsze dane pochodzące m.in. z badań zwyczajów dietetycznych poszczególnych osób, a nie tylko z danych na temat produkcji rolnej w różnych krajach.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Jeden z mitów dietetycznych głosi, że osoby, które więcej jedzą wieczorami, są bardziej podatne na przybranie na wadze i mają mniejszą szansę na jej zrzucenie. Badania przeprowadzone przez profesorów Alexandrę Johnstone z University of Aberdeen i Jonathana Johnstona z University of Surrey dowodzą, że energia z pożywienia jest podobnie użytkowana, niezależnie od tego, jak w ciągu dnia rozłożymy sobie liczbę spożywanych kalorii. Innymi słowy, bez samego ograniczenia liczby spożywanych kalorii nie powinniśmy liczyć na schudnięcie.
      Analizy zwyczajów dotyczących odżywiania się wskazują, że wiele osób większość kalorii spożywanych w ciągu dnia przyjmuje wieczorem. Johnstone i Johnston opublikowali właśnie na łamach Cell Metabolism pierwsze brytyjskie badania, w ramach których porównano wpływ spożywania większości dziennej dawki kalorii w ramach śniadań z ich spożywaniem w ramach kolacji.
      W badaniach wzięło udział 30 ochotników. Wszyscy oni mieli nadwagę lub byli otyli, jednak poza tym byli zdrowi. Badani przez 10 tygodni żywili się wyłącznie tym, co dostarczali im naukowcy.
      Przez pierwszy tydzień ochotnicy spożywali dietę potrzebną do utrzymania wagi. Otrzymywali 1,5 raza więcej kalorii niż wynosiło ich zapotrzebowanie energetyczne w czasie odpoczynku. Liczbę tę ustalono indywidualnie dla każdego z badanych. To standardowa liczba kalorii potrzebna do podtrzymania codziennych czynności życiowych. Kalorie były równomiernie rozłożone pomiędzy trzema posiłkami dziennie.
      Przez kolejne 4 tygodnie uczestnicy badań byli podzieleni na 2 grupy. W jednej z nich znalazło się 14 osób, które 45% dziennej dawki kalorii zjadały na śniadanie, 35% na obiad i 20% na kolację. w grupie drugiej było 16 osób, które na śniadanie zjadały 20% dawki kalorii, na obiad otrzymywały 35%, a na kolację zjadały 45% kalorii. Tutaj każdy z badanych otrzymał tyle kalorii, ile potrzebował jego organizm w czasie odpoczynku. Z tłuszczu pochodziło 35% kalorii, 30% dostarczano z białek, a 35% z węglowodanów.
      Po czterech tygodniach obie grupy jadły tak, jak w pierwszym tygodniu, a następnie – na ostatnie 4 tygodnie – zamieniono im dietę, czyli osoby, które wcześniej były w grupie jedzącej duże śniadania, trafiły do grupy jedzącej duże kolacje.
      Po każdym z czterotygodniowych etapów – przypomnijmy, że w ich trakcie badani otrzymywali tylko tyle kalorii, ile wynosiło ich zapotrzebowanie w czasie spoczynku – uczestników badania ważono. Okazało się, że osoby, które jadły większe śniadania niż kolacje straciły średnio 3,33 kg, a osoby jedzące większe kolacje niż śniadania straciły średnio 3,38 kg.
      Mimo, że różny rozkład kalorii w ciągu dnia nie wpływał na utratę wagi, to naukowcy zauważyli inną istotną rzecz. Osoby, które jadły większe śniadania czuły się bardziej najedzone przez resztę dnia. Przez ostatnie trzy dni każdej z diet badanym kilkukrotnie w ciągu dnia dawano do wypełnienia ankietę, w której swój poziom głodu oceniali na skali od O do 100, gdzie 0 oznaczało w pełni najedzony. Badani, gdy jedli duże śniadanie oceniali średnio swój poziom głodu na 30, a podczas jedzenia dużych kolacji – na 33. Jedzenie dużych śniadań wiązało się też z mniejszą chęcią na sięgnięcie po coś do zjedzenia, niższym poziomem stymulującego apetyt hormonu greliny i wyższymi poziomami hormonów odpowiedzialnych za uczucie najedzenia.
      To ważne badania, gdyż obala przekonanie, że różny rozkład liczby kalorii w ciągu dnia prowadzi do różnic w wydatkowaniu energii. Zasadniczym elementem odchudzania się, jest kontrola apetytu. Nasze badania sugerują, że osoby jedzące więcej kalorii na śniadanie, czują się bardziej najedzone, niż gdy jedzą więcej kalorii na kolację – stwierdzają autorzy badań.
      Spożywanie większej liczby kalorii na śniadanie a nie na kolację, może być dobrą strategią jeśli chcemy stracić na wadze, ale nie dlatego, że organizm w inny sposób korzysta z energii, ale dlatego, że czujemy się mniej głodni, więc możemy rzadziej podjadać.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Szybką i bezbłędną klasyfikację białek, wykrywanie w nich miejsc wiążących potencjalne leki, identyfikowanie białek występujących na powierzchni wirusów, a także badania np. RNA, umożliwia nowe narzędzie bioinformatyczne opracowane przez naukowców z Wydziału Biologii UW.
      BioS2Net, czyli Biological Sequence and Structure Network, jest zaawansowanym algorytmem wykorzystującym uczenie maszynowe, pozwalającym na klasyfikację nowo poznanych białek nie tylko na podstawie podobieństwa sekwencji aminokwasowych, ale także ich struktury przestrzennej. Publikacja na jego temat ukazała się na łamach pisma International Journal of Molecular Sciences.
      Narzędzie opracował zespół kierowany przez dr. Takao Ishikawę z Zakładu Biologii Molekularnej Wydziału Biologii UW we współpracy z naukowcem z Wydziału Matematyki, Informatyki i Mechaniki UW. Jak mówią sami autorzy, jego głównym zastosowaniem jest usprawniona klasyfikacja białek, ponieważ obecnie stosowany system klasyfikacji strukturalnej opiera się na żmudnej pracy polegającej na porównywaniu struktur nowych białek do tych już skategoryzowanych.
      Istnieje co prawda jego zautomatyzowany odpowiednik, jednak jest on bardzo restrykcyjny i bierze pod uwagę wyłącznie podobieństwo sekwencji białek, całkowicie pomijając ich strukturę. Takie narzędzie jak BioS2Net potencjalnie ma szansę znacząco usprawnić cały proces – wyjaśnia dr Ishikawa. Dodatkowo opracowana przez nas architektura może zostać użyta (po niewielkich przeróbkach) do innych zadań, niekoniecznie związanych z klasyfikacją. Przykładowo można by jej użyć do wykrywania w białku miejsc wiążących potencjalne leki lub do identyfikacji białek występujących na powierzchni wirusów.
      Można sobie np. wyobrazić sytuację, w której dotychczas zaklasyfikowane do innych grup białka, dzięki zastosowaniu BioS2Net zostaną skategoryzowane jako bardzo podobne do siebie pod względem budowy powierzchni, mimo innego zwinięcia łańcucha białkowego wewnątrz struktury. I wówczas niewykluczone, że cząsteczka oddziałująca z jednym białkiem (np. jako lek) okaże się także skutecznym interaktorem dla drugiego – wymienia dalsze potencjalne zastosowania praktyczne narzędzia dr Ishikawa. Innym ciekawym zastosowaniem mogłoby być np. wykrywanie miejsc wiążących w białkach, które mogą stanowić albo cel dla leków, albo punkt interakcji z białkiem wirusowym.
      Działanie BioS2Net opiera się na wykonywanych po sobie operacjach matematycznych, które bazują na danych o konkretnym białku. Do pracy narzędzie potrzebuje tychże danych (im więcej, tym lepiej), odpowiedniego oprogramowania zdolnego do wykonywania skomplikowanych obliczeń związanych z treningiem sieci neuronowej oraz sporej ilości czasu.
      W efekcie BioS2Net tworzy unikatową reprezentację każdego białka w postaci wektora o stałym rozmiarze. Można to porównać do czegoś w rodzaju kodu kreskowego opisującego każde z poznanych białek – tłumaczy dr Ishikawa. Narzędzie świetnie nadaje się do klasyfikacji białek na podstawie sekwencji aminokwasowej oraz struktury przestrzennej. Szczególnie istotne jest to, że można dzięki niemu wykryć białka o podobnej strukturze trójwymiarowej, ale o odmiennym „foldzie”, czyli innym sposobie zwinięcia łańcucha białkowego.
      Dotychczas stosowane metody przydzielałyby takie białka do osobnych grup. Tymczasem znane są przypadki, gdy tego typu cząsteczki pełnią podobne funkcje. I do wykrywania takich grup białek może się przydać BioS2Net – dodaje.
      Jak mówi naukowiec, nowe białka odkrywa się cały czas. Zdecydowana większość z nich, jeśli już ma opisaną strukturę przestrzenną, jest deponowana w bazie danych Protein Data Bank, do której każdy ma dostęp przez Internet. Warto jednak zwrócić uwagę, że proces odkrywania nowych białek rozpoczyna się o wiele wcześniej, już na etapie sekwencjonowania genomu. W bazach danych genomów często można spotkać się z adnotacją ’hypothetical protein’ (pol. hipotetyczne białko). Istnieją algorytmy komputerowe, które na podstawie sekwencji nukleotydowych w zsekwencjonowanym genomie przewidują obszary przypominające geny, które potencjalnie kodują informację o białkach. I takich potencjalnych białek znamy bardzo wiele. Ich funkcje można częściowo przewidzieć na podstawie podobieństwa do cząsteczek już wcześniej opisanych, ale do pełnego poznania takiej roli i mechanizmu działania często jednak należy najpierw ustalić ich strukturę, co wymaga miesięcy lub lat eksperymentów – opowiada badacz z UW.
      W przypadku białek podobna sekwencja aminokwasów z reguły przekłada się na podobną strukturę. Do niedawna był to wręcz dogmat w biologii strukturalnej. Dzisiaj jednak wiadomo – mówi dr Ishikawa – że wiele białek jest inherentnie nieustrukturyzowanych (IDP; ang. intrinsically disordered protein) albo przynajmniej zwiera w sobie tego typu rejony. Takie białka mogą przyjmować różne struktury w zależności od tego z jakimi innymi białkami w danym momencie oddziałują.
      Dodatkowo bardzo istotny jest cały kontekst, w jakim białko ulega pofałdowaniu. Przykładowo, obecność tzw. białek opiekuńczych, czy nawet samo tempo syntetyzowania białka w komórce, może mieć niemały wpływ na ostateczny jego kształt, a zatem też na funkcje. Nie zmienia to jednak faktu, że cechą fundamentalną każdego białka jest jego sekwencja aminokwasowa – podkreśla.
      A dlaczego w ogóle poznanie dokładnej budowy cząsteczki białka jest takie ważne? Autor publikacji wyjaśnia, że białka, realizując swoje zadania w komórce, zawsze przyjmują określoną strukturę. Np. jeśli chcemy zaprojektować nowy lek, który będzie oddziaływał z określonym białkiem, to fundamentalne znaczenie ma określenie struktury tego drugiego. W trakcie pandemii SARS-CoV-2 trzeba było np. określić strukturę wirusowego białka S (tzw. kolca) m.in. po to, aby można było zaproponować cząsteczkę swoiście z nim oddziałującą, a przez to zmniejszyć wydajność zakażania komórek człowieka – mówi. Podsumowując: badanie struktury białek ma ogromne znaczenie dla poznania ich funkcji i mechanizmu działania, a także innych cząsteczek z nimi oddziałujących.
      Jeśli chodzi o sam BioS2Net, to najpierw należy ściągnąć z bazy danych i przetworzyć informacje o danym białku. Przetwarzanie służy temu, aby wszystkie cechy białka, takie jak współrzędne atomów, rodzaje aminokwasów, profil ewolucyjny itd., zamienić na liczby, które będą zrozumiałe dla komputera. Każdy pojedynczy atom cząsteczki jest opisywany przez kilkadziesiąt liczb, które wyrażają wspomniane cechy.
      Następnie liczby te wprowadza się do sieci neuronowej, która analizuje każdy z atomów oraz ich najbliższych sąsiadów, biorąc pod uwagę zarówno ich ułożenie przestrzenne, jak i sekwencyjne. Kolejny etap to łączenie grup atomów w jeden „superatom”, który zawiera w sobie całą wyuczoną lokalną informację. Proces ten powtarza się do momentu aż ów „superatom” będzie zawierał zagregowane informacje o całym białku. To jest nasz kod kreskowy, który wykorzystujemy potem do klasyfikacji białka, używając standardowych sieci neuronowych – zaznacza dr Ishikawa.
      Zapytany o dokładność nowego narzędzia biolog wyjaśnia, że jeśli chodzi o wytworzenie unikatowego wektora reprezentującego poszczególne białka, to BioS2Net robi to bezbłędnie, tzn. że każde białko jest reprezentowane w jedyny możliwy sposób i żadna inna cząsteczka nie będzie opisana w taki sam sposób.
      Natomiast, gdy zastosowaliśmy BioS2Net do klasyfikacji białek, osiągnęliśmy wynik nawet 95,4 proc. trafności w porównaniu do obowiązującej klasyfikacji wg bazy danych. Oznacza to, że w ponad 95 przypadków na 100 BioS2Net był w stanie prawidłowo przyporządkować białko do danej grupy. Tutaj jednak warto wspomnieć, że ta obowiązująca klasyfikacja opiera się na podobieństwie sekwencji aminokwasowych i pomija informacje strukturalne – tłumaczy autor publikacji.
      Naukowcy podkreślają, że poza głównym zastosowaniem, czyli klasyfikacją białek, BioS2Net będzie mógł służyć także do analizowania innych cząsteczek biologicznych, w tym RNA. Uważamy, że narzędzie można by też wykorzystywać do klasyfikacji zupełnie innych danych biologicznych, np. map chromosomów w jądrze komórkowym. Właściwie to nasza architektura może być przydatna wszędzie tam, gdzie jest zdefiniowana struktura i sekwencja – mówią.
      Dr Ishikawa dodaje, że BioS2Net powstał w ramach pracy licencjackiej pierwszego autora (jego Alberta Roethla) wykonanej pod kierunkiem. Warto to podkreślić, bo to ważny sygnał, że licencjat niekoniecznie jest pracą dyplomową, którą po prostu trzeba zrobić, ale czymś, co ma potencjał naukowy i może zostać opublikowane w międzynarodowym czasopiśmie – zaznacza naukowiec.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Przed przybyciem wikingów niewielu mieszkańców Wysp Brytyjskich jadło duże ilości mięsa. Brak też dowodów, by anglosaskie elity spożywały go więcej, niż wieśniacy, stwierdzają autorzy najnowszych badań. Wszystko wskazuje na to, że władcy Wysp żywili się głównie dietą wegetariańską, chociaż od czasu do czasu wieśniacy urządzali dla nich wystawne mięsne uczty.
      Popularne wyobrażenia o władcach dawnych królestw znajdujących się na Wyspach Brytyjskich rysują nam obraz elity zasiadającej przy suto zastawionych stołach. Nawet historycy od dawna utrzymują, że w czasach anglosaskich członkowie rodów królewskich i inni szlachetnie urodzeni spożywali znacznie więcej mięsa niż reszta mieszkańców, a wolni chłopi musieli przez cały rok dostarczać im duże ilości pożywienia w ramach systemu podatkowego zwanego feorm.
      Na łamach pisma Anglo-Saxon England ukazały się właśnie artykuły pod wielce znaczącymi tytułami Food and Power in Early Medieval England: Rethinking Feorm i Food and Power in Early Medieval England: a lack of (isotopic) enrichment.
      Wszystko zaczęło się od wykładu ówczesnej doktorantki bioarcheologii Sam Leggett z University of Cambridge. Przeanalizowała ona sygnatury izotopów znalezione w kościach 2023 osób pochowanych w Anglii pomiędzy V a XI wiekiem. Następnie porównała te sygnatury z dowodami na status społeczny zmarłych, takimi jak dobra grobowe, pozycja ciała i orientacja grobu. Na podstawie swoich badań stwierdziła, że nie istnieje korelacja pomiędzy statusem społecznym, a dietą bogatą w białko. Prezentacja zaintrygowała historyka Toma Lamberta. Wiedział on bowiem, że wiele średniowiecznych tekstów oraz badań naukowych wskazuje, iż anglosaskie elity spożywały olbrzymie ilości mięsa.
      Lambert i Leggett rozpoczęli więc wspólny projekt badawczy, by dowiedzieć się, jak było naprawdę. Uczeni zaczęli od odczytania listy pożywienia skompilowanej za czasów króla Wesseksu, Ine (688–726). Był on jednym z największych władców przed Alfredem Wielkim. Jego dziełem jest m.in. pierwszy zbiór praw, który miał duży wpływ na kształtowanie się angielskiego społeczeństwa.
      Naukowcy dokładnie przeanalizowali listę, by dowiedzieć się, ile pożywienia na niej zapisano i jaka była jego wartość kaloryczna. Stwierdzili, że na liście znajduje się pożywienie o łącznej zawartości 1,24 miliona kalorii, z czego połowę stanowi białko zwierzęce. Wymieniono tam 300 bochenków chleba (o wadze 300 g każdy), więc naukowcy założyli, że każdy z uczestników uczty otrzymał 1 bochenek, zatem na liście znajduje się pożywienie dla 300 osób. Z przeliczenia wynikało, że każdy z gości mógł zjeść 0,7 kg baraniny, wołowiny i drobiu, niemal 0,4 kg łososia i węgorza. Podano też po ok. 150 gramów sera i masła, 200 gramów miodu oraz 2,1 litra piwa na głowę. W sumie każdy z gości spożył 4140 kcal. Następnie uczeni przeanalizowali 10 podobnych list z południa Anglii i zauważyli ten sam wzorzec: umiarkowana ilość pieczywa, duża ilość mięsa, dość sporo piwa oraz żadnych wzmianek o warzywach.
      Jednak, jak podkreślają uczeni, skala i proporcje tych dostaw wskazują, że było to pożywienie na okazjonalne, wielkie uczty, a nie zwykłe dostawy żywności dla domu królewskiego. Wbrew temu, co dotychczas sądzono, nie był to standardowy spis dostaw.
      Doktor Sam Leggett dodaje, że nie znalazła żadnych dowodów, by ci ludzie codziennie jedli tak duże ilości mięsa. Jeśli by tak było, to znaleźlibyśmy izotopowe dowody na nadmiar protein, a w kościach widoczne byłyby ślady schorzeń takich jak dna moczanowa. Niczego takiego nie stwierdziliśmy. Wręcz przeciwnie, wszystkie dowody wskazują na to, że w czasach anglosaskich codzienna dieta wszystkich warstw społecznych była do siebie bardziej podobna, niż nam się wydaje. Ludzie jedli głównie pieczywo, niewiele mięsa i sera, zupy jarzynowe z pełnymi ziarnami i niewielką ilością mięsa. Również dieta królów opierała się głównie na zbożach. I nawet dla nich okazją do zjedzenia większej ilości mięsa były uczty organizowane przy wyjątkowych okazjach. Musiały być to duże wydarzenia społeczne, podczas których na rożnach pieczono całe woły. We wschodniej Anglii znaleziono ślady takich palenisk. Jednak nie tylko królowie brali udział w tych bogatych biesiadach.
      Generalnie uważa się, że średniowieczne uczty były zarezerwowane dla elity. Jednak te listy pokazują, że w ucztach musiało uczestniczyć co najmniej 300 osób. A to oznacza, że brało w nich udział wielu chłopów. Uczty te miały olbrzymie znaczenie polityczne, wyjaśnia Lambert. Historyk zajął się też samym terminem feorm. Obecnie uważa się, że oznacza on rentę w naturze płaconą władcom przez wolnych chłopów. Renta ta, w ramach której chłopi dostarczali na dwór m.in. produkty rolne, miała być głównym źródłem pożywienia dworu królewskiego. Z czasem, gdy królestwa się rozrastały, przywilej pobierania takiej renty przyznawano lokalnym elitom, wzmacniając ich więź z dworem.
      Lambert zbadał znaczenie słowa feorm w różnych kontekstach i doszedł do wniosku, że wyraz ten odnosi się do uczty, a nie do formy podatku. To niezwykle ważne spostrzeżenie. Zapłata narzuconego z góry podatku nie wymaga bowiem osobistej obecności władcy czy feudała i nie ma związku z okazywaniem przez niego szacunku chłopom. Jednak feorm rozumiany jako wspólna uczta, zupełnie zmienia dynamikę relacji feudał-chłop. Mamy tutaj bowiem zarówno osobiste zaangażowanie władcy w relację z poddanym, jak i okazję do podziękowania poddanym za służbę. Wyobraźmy sobie władców podróżujących, by wziąć udział w wielkich ucztach organizowanych przez wolnych chłopów, ludzi posiadających własną ziemię, a czasem i niewolników. Można by to porównać do obiadów, jakie kandydaci na prezydenta USA wydają w czasie kampanii wyborczej. Miało to olbrzymie znaczenie polityczne, wyjaśnia Lambert.
      Taka zmiana rozumienia terminu feorm ma daleko idące znaczenie dla badań nad historią średniowiecza i całością historii politycznej Anglii. Rzuca bowiem nowe światło na kwestie związane z początkami rozwoju systemu monarchistycznego Anglii, polityki opierającej się na patronacie i własności ziemskiej, jest też ważnym elementem w dyskusji nad przyczynami zniknięcia klasy wolnych chłopów.
      Legett i Lambert czekają teraz na wyniki badań izotopowych z Winchester Mortuary Chests, gdzie prawdopodobnie spoczywają król Wesseksu Egbert (IX w.), Knut Wielki (XI w.) i inni anglosascy władcy.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...