Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36960
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. Od kilku lat donosimy o kolejnych odkryciach, mających świadczyć o potencjalnej obecności w Układzie Słonecznym Planety X, zwanej też Dziewiątą Planetą. Jednak uczeni z University of Cambridge i American University of Beirut donieśli właśnie, że zjawiska, mające świadczyć o istnieniu Planety X można wyjaśnić nie odwołując się do jej oddziaływania. Dowodem na istnienie Dziewiątej, mają być m.in. niezwykłe orbity niektórych obiektów znajdujących się w odległych regionach Układu Słonecznego. Jednak, jak dowiadujemy się z najnowszego Astronomical Journal, orbity te można wyjaśnić wzajemnym oddziaływaniem grawitacyjnym niewielkich obiektów znajdujących się poza Neptunem. Teoria, wysunięta przez uczonych z Cambridge i Bejrutu, nie jest pierwszą, która szuka wyjaśnień bez potrzeby odwoływania się do Planety X, ale jest pierwszą, która pozwala na wyjaśnienie dziwnych orit, uwzględniając przy tym istnienie ośmiu znanych planet Układu Słonecznego. Za orbitą Neptuna znajduje się Pas Kuipera, w skład którego wchodzą niewielkie obiekty będące pozostałością po formowaniu się Układu Słonecznego. Neptun i inne wielkie planety wywierają wpływ grawitacyjny na te obiekty, zwane obiektami transneptunowymi (TNO). Od 2003 roku naukowcy odkrywają kolejne TNO, które wyraźnie różnią się od innych. Znamy już około 30 TNO, które różnią się od innych obiektów transneptunowych swoją wspólną, podobną, orientacją w przestrzeni. Nie można jej wyjaśnić znaną konfiguracją Układu Słonecznego, zatem część ekspertów zaczęła podejrzewać, iż wpływ na te obiekty miała nieznana Dziewiąta Planeta. Chcieliśmy sprawdzić, czy istnieje inne, mniej spektakularne wyjaśnienie niezwykłych orbit tych TNO. Zamiast hipotetyzować o Planecie X, próbować ją odnaleźć, określić jej orbitę oraz historię jej ewolucji, wzięliśmy pod uwagę wzajemne oddziaływania grawitacyjne obiektów transneptunowych, mówi Antranik Sefilian, doktorant z Cambridge University. Wraz z profesorem Jihadem Toumą z American University of Bejrut stworzył on model, w którym uwzględniono pełną dynamikę TNO wraz z wpływem dużych zewnętrznych planet Układu Słonecznego i reszty Pasa Kuipera. Okazało się, że taki model pozwala na wyjaśnienie  niezwykłych orbit niektórych TNO. Model Sefiliana i Toumy przynosi jeszcze jedno ważne spostrzeżenie. Otóż, żeby był on prawdziwy, masa obiektów w Pasie Kuipera musi być od kilku do 10 razy większa niż masa Ziemi. Dotychczasowe oceny masy Pasa Kuipera mówiły, że ma on około 1/10 masy Ziemi. Sefilian i Touma nie wykluczają jednak całkowicie, że mamy do czynienia z oboma zjawiskami jednocześnie – masywnym Pasem Kuipera i Planetą X. « powrót do artykułu
  2. Kontynentalne Stany Zjednoczone, do którego to pojęcia nie zalicza się Alaski, utraciły swoje ostatnie dzikie karibu. Grupa biologów pracujących na zlecenie władz kanadyjskiej prowincji Kolumbia Brytyjska, schwytała ostatnie karibu, samicę, o którym wiadomo, że przechodziło na teren USA. Zwierzę zostało pojmane w Górach Selkirk, na północ od granicy amerykańsko-kanadyjskiej. Samica była ostatnią przedstawicielką ostatniego stada karibu, które regularnie przechodziło z Kanady do USA. Złapana samica została przetransportowana do ośrodka hodowlanego w Revelstoke. To część kontrowersyjnego planu, mającego na celu zachowanie wysoce zagrożonych stad. Za około miesiąc samica zostanie wypuszczona, wraz z dwoma innymi zwierzętami z zagrożonego stada, do większego bardziej stabilnego stada kanadyjskiego. Jednak los zwierząt jest niepewny. Należą one do górskich karibu. To osoby podtyp, występujący w lesistych terenach północno-zachodniej Ameryki Północnej. Zwierzęta znalazły się na skraju wyginięcia m.in. z powodu utraty habitatów. Habitatów tych nie udało się ocalić. W tej chwili biolodzy nie są w stanie powiedzieć, czy karibu kiedykolwiek wrócą na teren kontynentalnych Stanów Zjednoczonych. Alaskę zamieszkują inne podtypy karibu. Obrońcy przyrody przez dziesiątki lat walczyli o zachowanie górskich karibu. Wysiłki poszły na marne. Teraz wielu specjalistów obawia się, że będzie jeszcze gorzej. Usunięcie karibu z ich terenów może oznaczać, że obszary te utracą status obszarów chronionych, zatem już nigdy nie będzie tam warunków, by karibu wróciły. Zarówno w Kolumbii Brytyjskiej, jak i w USA zidentyfikowano i objęto ochroną tereny kluczowe dla karibu. Jednak, szczególnie w Kolumbii Brytyjskiej, obszary do nich przylegające, są przedmiotem intensywnej wycinki drzew, przez co liczba karibu drastycznie spadała. Jako, że zmniejszała się liczba karibu, rosła liczba innych zwierząt, takich jak łosie czy jelenie. To zaś przyciągało drapieżniki, a te polowały również na karibu, przyczyniając się do dalszego spadku ich liczebności. Dlatego też Kanadyjczycy zdecydowali się, mimo sprzeciwu dwóch plemion indiańskich, na usunięcie karibu z tych terenów. Urzędnicy zapewniają, że tereny chronione, na których występowały karibu, nadal będą objęte ochroną. Trudno w to uwierzyć, mówi Candance Batycki z organizacji Yellowstone to Yukon Conservative Initiative w Nelson w Kanadzie. Jego sceptycyzm ma mocne podstawy. Władze Kolumbii Brytyjskiej przestawały już bowiem w przeszłości chronić obszary, z których usunięto karibu. Specjaliści podkreślają, że nie chodzi tutaj tylko o przetrwanie unikatowej populacji karibu, ale o integralność ekologiczną całego ekosystemu leśnego. Ochrona kluczowego habitatu karibu to parasol, wielki parasol ochronny, nad wieloma innymi gatunkami, mówi biolog Aaron Reid z Ministerstwa Leśnictwa Kolumbii Brytyjskiej. « powrót do artykułu
  3. Najnowsze badania przynoszą złe wieści dla miłośników kawy. Wskutek wylesiania, zmiany klimatu i związanego z tym rozprzestrzeniania się chorób, aż 60% dzikich gatunków kawy jest zagrożonych wyginięciem. Tymczasem w przypadku mniej niż połowy tych gatunków zebrano ich nasiona, które trafiły do banków nasion. To zaś oznacza, że gdy one wyginą, to ich już nie odzyskamy. Dzikie gatunki kawy są ważnym źródłem materiału genetycznego dla gatunków uprawnych. A zmiany klimatyczne powodują, że stają się one coraz ważniejsze z punktu widzenia utrzymania upraw. Jeśli popatrzymy na historię uprawy kawy, to co mniej więcej 40 lat musimy wykorzystywać różnorodność dzikich odmian do rozwiązania specyficznych problemów nękających uprawy, mówi główny autor badań Aaron Davis, Royal Botanic Gardens w Kew, który jest tam głównym specjalistą ds. badań nad kawą. Davis i jego koledzy przyjrzeli się wszystkim znanym 124 gatunkom kawy. Badali w naturze dziko rosnące rośliny i określali zagrożenia. Następnie każdy z gatunków przypisali do jednej z trzech grup. W Grupie I znalazły się cztery gatunki uprawne oraz blisko spokrewnione z nimi dzikie gatunki. W tej grupie jedynym zagrożonym gatunkiem była dzika Coffea arabica. Do Grupy II trafiły wszystkie afrykańskie gatunki kawy. Jest ich 38, a czego zagrożonych jest 23. W Grupie III znalazły się pozostałe 82 gatunki, z czego 51 jest zagrożonych. Przejrzenie wszystkich światowych gatunków kawy nie jest prostym zadaniem. Davis rozpoczął swoją pracę w 1997 roku od wizyty na Madagaskarze. Od tamtej pory odbył 11 „kawowych” ekspedycji naukowych. Ostatnio był w Sierra Leone w grudniu ubiegłego roku. Samo znalezienie kawy jest bardzo trudne. Na Madagaskarze uczony pracował w gęstym lesie tropikalnym. Dostrzeżenie kawy wśród tysięcy innych roślin to poważne zadanie. Saranda Krishnan, dyrektor ds. uprawy roślin w Ogrodzie Botanicznym w Denver mówi, poszczególne gatunki kawy będzie bardzo trudno chronić przed wyginięciem. Każdy z nich ma bowiem specyficzne wymagania klimatyczne i jest wysoce wyspecjalizowany, może więc znieść jedynie niewielki margines zmian. Ponadto, mimo iż Coffea jest rozpowszechniona na całym świecie, każdy z dzikich warunków zajmuje niewielką niszę. Kawa jest jednym z tych gatunków, które najbardziej zostaną dotknięte zmianami klimatycznymi, gdyż nie jest ona dostosowana do życia w dużych ekoregionach, każdy z dzikich gatunków jest rozprzestrzeniony na niewielkim obszarze, mówi uczona. Dodaje, że szczególnie niebezpieczne jest dla kawy wylesianie. Gdy znika las, znika żyjący w nim gatunek kawy. Specjaliści powątpiewają, czy uda się powstrzymać wylesianie. Christophe Montagnon, dyrektor ds. badawczych niedochodowej organizacji World Coffee Research mówi, że jedyne co można zrobić w tej sytuacji, to zebrać nasiona dzikich gatunków kawy i umieścić je w specjalnych zbiorach. Organizacja, we współpracy z Global Crop Diversity Trust, ma zamiar zebrać 25 milionów dolarów na stworzenie kolekcji nasion kawy, by zachować jej pulę genetyczną. Nie będzie to jednak łatwe zadanie. W bankach nasion wymagana jest bardzo niska temperatura i niska wilgotność. Nasiona kawy źle znoszą takie warunki. To zaś oznacza, że kolekcja nasion kawy musiałaby być ciągle odnawiana. Alternatywną metodą mogłaby być kriokonserwacja, czyli zamrożenie, jednak tutaj w grę wchodzą olbrzymie koszty. « powrót do artykułu
  4. Do 2019 r. wiadomo było o istnieniu tylko jednego osobnika z gatunku Telmatobius yuracare - Romeo, który przebywał w Muzeum Historii Naturalnej Alcide'a d'Orbigny'ego w Cochabambie. Od 2008 r. na wolności nie spotkano ani jednego płaza. Naukowcy, którzy obawiali się, że T. yuracare wyginęły, spędzili aż 10 lat na przeczesywaniu lasu chmurnego Boliwii. W końcu natknęli się na minipopulację złożoną z zaledwie 5 osobników. To niesamowite - cieszy się herpetolog Robin Moore z Global Wildlife Conservation. Najpierw ekipa natknęła się na samca. W późniejszych dniach znaleziono 4 inne płazy, w tym 2 samice: młodą i Julię dla Romeo. W skład ostatniej ekspedycji wchodzili Teresa Camacho Badani, Sophia Barrón Lavayen, Ricardo Zurita Urgarte (weterynarz) i Stephane Knoll. Obecnie wszystkie płazy odbywają kwarantannę w muzealnym K'ayara Center. Ponoć zaczynają się aklimatyzować w nowym domu. Upewniamy się, że mają taką samą jakość wody i temperaturę jak na wolności. Gdy przyzwyczają się do habitatu i zaczną normalnie jeść, przeleczymy je zapobiegawczo na chytridiomikozę. Nie chcemy, by Romeo zachorował na pierwszej randce! Po zakończeniu terapii zorganizujemy mu romantyczną schadzkę - opowiada Camacho Badani. Akademicy planują dalsze ekspedycje. Dalszy tok postępowania zależy od tego, czy znajdą garstkę płazów na jednym bądź dwóch stanowiskach, czy będą to o wiele liczniejsze populacje (2. scenariusz jest mało prawdopodobny, skoro po ponad 10 latach poszukiwań znaleziono zaledwie 5 osobników, a większość habitatu uległa zniszczeniu). Idealnie byłoby odkryć 1 czy 2 zdrowe populacje, tak by można się było zająć monitoringiem grzyba [z rodzaju Batrachochytrium] i ochroną w naturze. Jeśli jednak znajdziemy 1 albo 2 stanowiska z małą liczbą populacji, będziemy ratować ocalałych, zabierając zwierzęta do laboratorium i poddając je programowi rozrodu. Moore uważa, że odkryta właśnie populacja może wykazywać genetyczną oporność na chytridiomikozę. W grę mogą też wchodzić czynniki środowiskowe albo łut szczęścia. Partnerkę dla Romea i resztę grupy odkryto w dobrze zachowanym lesie chmurnym, gdzie klimat jest deszczowy, mglisty i wilgotny z powodu niezbyt głębokich sadzawek i strumieni. Cieki te mają mniej niż metr szerokości, a prądy tworzą wodospady. « powrót do artykułu
  5. Rak trzustki to jeden z najbardziej śmiertelnych nowotworów. Jest trudny do zdiagnozowania, gdyż na początkowych stadiach nie daje widocznych oczywistych objawów. Diagnozowany jest najczęściej w zaawansowanym stadium, dlatego też jedynie około 8,5% pacjentów przeżywa dłużej niż 5 lat od czasu diagnozy. Naukowcy z Van Andel Research Institute opracowali nowy, prosty test z krwi, który  w połączeniu z już istniejącymi testami wykrywa niemal 70% nowotworów trzustki, a odsetek fałszywych pozytywnych wyników wynosi mniej niż 5%. Rak trzustki to agresywna choroba, która ma tendencję do dawania przerzutów jeszcze przed zdiagnozowaniem, przez co jest trudny w leczeniu. Mamy nadzieję, że nasz nowy test, w połączeniu z już istniejącymi testami pozwoli lekarzom na diagnozowanie pacjentów z grupy wysokiego ryzyka jeszcze zanim nowotwór się rozprzestrzeni, mówi jeden z głównych autorów badań profesor Brian Haab. Nowy test, podobnie jak już istniejące, mierzy poziom cukru uwalniany do krwi przez obecne tam komórki raka trzustki. Z tą jednak różnicą, że obecne testy wykonują pomiary z populacji komórek CA-19-9, a nowy test bierze pod uwagę inną populację. Zastosowane razem testy działają zatem szerzej i jest większa szansa, iż wyłapią obecność komórek nowotworowych we krwi. Test CA-19-9 został opracowany przed około 40 laty. Jego skuteczność wynosi zaledwie około 40%. Jest on obecnie używany raczej do potwierdzania już postawionej diagnozy i do śledzenia postępów choroby, a nie do badań przesiewowych. Połączenie nowego testu sTRA z CA-19-9 nadaje się do prowadzenia badań przesiewowych i wczesnej diagnostyki, szczególnie u osób z grupy podwyższonego ryzyka. Osoby takie to te, w których rodzinie występował rak trzustki, które cierpią na chroniczne zapalenie trzustki, u których zdiagnozowano torbiel na trzustce oraz te ze zdiagnozowaną w późniejszych dekadach życia cukrzycą typu 2. Pojawia się bowiem coraz więcej dowodów na to, że zachorowanie na cukrzycę po 50. rokiem życia może być wczesnym objawem nowotworu trzustki. Cukrzyca, która pojawiła się wcześniej nie jest obecnie uznawana za czynnik ryzyka raka trzustki. Obecnie istnieje niewiele narzędzi diagnostycznych, które można zastosować u ludzi z podwyższonym ryzykiem raka trzustki. Połączenie obu wspomnianych testów może być prostą tanią metodą na wczesną diagnozę, która polepszy rokowania pacjenta, mówi Haab. « powrót do artykułu
  6. Badanie białkowego składu płynu surowiczego z pęcherzy może pomóc w szybszej ocenie głębokości oparzeń i czasu potrzebnego na reepitelizację (ang. re-epithelialization), czyli pokrycie powierzchni całej rany przez warstwę nabłonka. Diagnozowanie głębokości oparzeń, która może się zwiększać nawet przez parę godzin od początkowego urazu, zajmuje do 2 tygodni i często zależy od doświadczenia lekarza. Oparzenia głębokie i te, które na wygojenie potrzebują ponad 21 dni, zwykle wymagają przeszczepu skóry. Gdyby lekarze mogli dokładnie oszacować głębokość oparzenia i czas potrzebny na reepitelizację na wcześniejszym etapie, dałoby się ograniczyć bliznowacenie. Jest to szczególnie ważne w przypadku pacjentów pediatrycznych, gdyż tkanka bliznowata nie rozciąga się ze wzrostem dziecka i może utrudniać ruchy stawów oraz rozwój kości. Zespół Tony'ego Parkera z Uniwersytetu Technologicznego Queensland postanowił sprawdzić, czy można wykorzystać płyn surowiczy z pęcherzy, by dokładnie i szybko sklasyfikować ciężkość poparzeń u dzieci. Naukowcy wykorzystali spektrometrię mas, by przeanalizować proteomy (zestawy białek) 56 próbek płynu surowiczego z oparzeń o różnej głębokości i o różnym szacowanym czasie reepitelizacji. Okazało się, że najgłębsze rany miały inny wzorzec występowania białek niż płytsze oparzenia. Wraz z głębokością rany rósł np. poziom hemoglobiny. Mógł to być wynik rozpadu czerwonych krwinek (erytrocytów). Oprócz tego zauważono, że rany, które na pokrycie powierzchni nabłonkiem potrzebowały ponad 3 tygodni, cechowały się wyższym stężeniem kolagenu (ten zaś wiąże się z bliznowaceniem). Łączne uwzględnienie poziomu kilku białek pozwalało na sformułowanie trafniejszej diagnozy. « powrót do artykułu
  7. Odkryliśmy silny związek pomiędzy większą sprawnością oddechowo-krążeniową a mniejszym ryzykiem ataku serca i dusznicą bolesną, mówi Bjarne Nes z Norweskiego Instytutu Nauki i Technologii (NTNU). Badania Norwegów zostały opublikowane w European Heart Journal. Nawet wśród ludzi, którzy wydają się całkowicie zdrowi, 25% najbardziej sprawnych fizycznie jest narażonych na dwukrotnie mniejsze ryzyko ataku serca niż 25% najmniej sprawnych, dodaje Nes. W latach 2006–2008 naukowcy zbadali sprawność krążeniowo-oddechową 4527 kobiet i mężczyzn. Żadna z badanych osób nie cierpiała na żadną chorobę układu krążenia, nowotwór ani nie miała podwyższonego ciśnienie. Przez kolejne 10 lat większość z tych osób było uważanych za ludzi o niskim ryzyku wystąpienia chorób układu krążenia. Mimo to do roku 2017 u 147 uczestników badania nastąpił atak serca lub zdiagnozowano dusznicę bolesną. To wskazuje, że tętnice wieńcowe tych osób zostały znacznie zwężone lub całkowicie zablokowane. Naukowcy analizowali pacjentów pod kątem poziomu sprawności fizycznej ich układu oddechowo-krążeniowego w porównaniu z osobami tej samej płci i w tym samym wieku. Okazało się, że im większa sprawność, tym mniejsze ryzyko wystąpienia problemów. W przeciwieństwie do autorów poprzednich badań Norwegowie nie ograniczyli się do wyliczania sprawności fizycznej czy poleganiu na tym, co pacjenci mówili im o własnej aktywności fizycznej, ale przebadali ich pod kątem maksymalnego pobierania tlenu przez organizm. To najbardziej precyzyjna metoda oceny sprawności, mówi Bjarne Nes. Badania sugerują, że nawet niewielkie zwiększenie sprawności fizycznej znacząco zmniejsza ryzyko ataku serca i duszności bolesnej. Na każdy 3,5-punktowy wzrost sprawności odnotowano 15-procentowy spadek ryzyka zachorowania. To powinno zachęcić ludzi do treningu jako środka zapobiegającego chorobie. Kilka miesięcy regularnych ćwiczeń na poziomie, który pozbawia nas oddechu to dobry sposób na zmniejszenie ryzyka problemów sercowo-naczyniowych, stwierdza inny autor badań, Jon Magne Letnes. Nawet jeśli ktoś nigdy nie był w dobrej kondycji, to ćwiczenia mu pomogą. Wydaje się, że nie istnieje górny limit ćwiczeń powyżej którego nie odnosimy już korzyści, komentuje profesor Sanyaj Sharma z Wielkiej Brytanii. Uczony ten jest dyrektorem medycznym Maratonu Londyńskiego i jednym z najwybitniejszych na świecie ekspertów od medycyny sportu i chorób serca. Naukowcy z NTNU opracowali też i udostępnili w sieci kalkulator sprawności fizycznej. Można go znaleźć na stronie ich uczelni. « powrót do artykułu
  8. Konsolidując pamięć wcześniejszego spożycia, glutaminianergiczne neurony piramidowe brzusznego i grzbietowego hipokampa odgrywają kluczową rolę w hamowaniu jedzenia/poboru energii w okresie poposiłkowym. Wspomnienia ostatnio zjedzonych pokarmów mogą stanowić potężny mechanizm kontroli zachowań związanych z odżywianiem, gdyż zapewniają zapis ostatniego spożycia, który prawdopodobnie przetrwa większość sygnałów hormonalnych i mózgowych generowanych przez posiłek - podkreśla dr Marise Parent z Uniwersytetu Stanowego Georgii. Co jednak zaskakujące, regiony mózgu, które pozwalają pamięci kontrolować przyszłe zachowania związane z odżywianiem, są w dużej mierze nieznane - dodaje. Komórki hipokampa dostają informacje o stanie łaknienia i są połączone z obszarami mózgu istotnymi dla zapoczątkowania i zahamowania jedzenia. Naukowcy postanowili więc sprawdzić, czy zaburzenie funkcji hipokampa po posiłku, kiedy wspomnienie jedzenia jest stabilizowane, może sprzyjać przyszłemu spożyciu, gdy komórki zaczynają działać normalnie. Autorzy artykułu z pisma eNeuro posłużyli się optogenetyką, która pozwala kontrolować pojedyncze neurony za pomocą światła. Gdy Amerykanie wykorzystali tę metodę, by zahamować komórki hipokampa po jedzeniu, okazało się, że zwierzęta jadły następny posiłek wcześniej i pochłaniały niemal 2-krotnie więcej jedzenia. Działo się tak, mimo że komórki działały już wtedy normalnie. Nie miało przy tym znaczenia, czy szczurom dawano paszę dla gryzoni, roztwór sacharozy czy wodę z sacharyną. Naukowcy byli zaskoczeni faktem, że szczury spożywały więcej sacharyny, bo ta nieposiadająca wartości odżywczych substancja słodząca generuje bardzo mało jelitowych sygnałów chemicznych charakterystycznych dla jedzenia. Mając to na uwadze, doszli do wniosku, że efekt, który dostrzegli, można wyjaśnić wpływem na konsolidację pamięci, a nie upośledzoną zdolnością do przetwarzania sygnałów żołądkowo-jelitowych. Amerykanie podkreślają, że uzyskane wyniki mają ogromne znaczenie dla zrozumienia przyczyn otyłości i opracowania metod jej leczenia. Wiele wskazuje na to, że wspieranie zależnych od hipokampa wspomnień tego, co, kiedy i jak dużo się zjadło, może być użyteczną strategią odchudzania. « powrót do artykułu
  9. W Brantford w prowincji Ontario znaleziono znaczną liczbę nadpalonych nasion komosy z udomowionego gatunku Chenopodium berlandieri spp. jonesianum. Nasiona pochodzą z roku 900 przed Chrystusem. Jak mówi profesor Gary Crawford z University of Toronto Mississauga, to pierwsze dowody na obecność tej rośliny tak wcześnie i tak daleko na północ od Kentucky. Uczony przyznaje, że odkrycie go bardzo zaskoczyło. Znalezienie tak starych udomowionych roślin w Ontario to coś niezwykłego. Dotychczas najstarszą udomowioną rośliną znaną z tego terenu była kukurydza pochodząca z około 500 roku naszej ery. Ten wymarły obecnie gatunek komosy znaliśmy dotychczas wyłącznie z centralnych stanów USA, z Arkansas, Illinois i Kentucky. Niezwykłe znalezisko składa się ze 140 000 nadpalonych ziaren. Okryto je w 2010 roku gdy archeolodzy badali teren, na którym miało stanąć osiedle mieszkaniowe. Znaleziono tam też nieco kamiennych narzędzi i innych artefaktów. Badania nasion zajęły całe lata, gdyż jest ich bardzo dużo, a uczeni chcieli sprawdzić, czy wszystkie pochodziły z tych samych zbiorów. Odkrycie to rodzi więcej pytań niż daje odpowiedzi. Musimy się dowiedzieć, czy nasiona trafiły tutaj w ramach wymiany handlowej, czy też uprawiano tutaj komosę. Musimy też rozważyć, czy mamy tu dowód na początki rolnictwa w tym regionie. Nie wydaje się, by tak było, gdyż dotychczas nie znaleźliśmy żadnych dowodów na istnienie lokalnych upraw. Gdyby komosa była tu uprawiana, to powinniśmy znaleźć porozrzucane ziarna wszędzie wokół, tymczasem odkryliśmy je wyłącznie w jednym miejscu. Nie znaleźliśmy też żadnych narzędzi związanych z działalnością rolniczą, mówi współautor badań, Ron Williamson. Wiadomo, że w okresie, z którego pochodzą nasiona, lokalni mieszkańcy prowadzili długodystansowy handel, w ramach którego wymieniali minerały i kamienne narzędzia. Nie natrafiono jednak dotychczas na ślady wymiany roślin uprawnych. Uczeni nie wiedzą też, jakie znaczenie miała komosa dla mieszkańców Ontario. Zawsze zastanawialiśmy się, czy wymianie podlegały też dobra nietrwałe. Na razie przyjmujemy konserwatywne założenie, że nasiona były przedmiotem handlu. W Kentucky, Illinois i Arkansas ten gatunek komosy był bardzo ważnym składnikiem diety. Jego wartość odżywcza była prawdopodobnie taka jak współczesnych odmian komosy, pochodzących z Ameryki Południowej, dodaje Crawford. Naukowcy zastanawiają się też, dlaczego nasiona były nadpalone. Niewykluczone, że doszło do tego przypadkiem, gdy ludzie próbowali je uprażyć, by nie kiełkowały. Wtedy łatwiej było je przechowywać. « powrót do artykułu
  10. Od czasów Oświecenia prognozuje się zaniknięcie religii, jednak religijność ludzka ma się dobrze. Jedynie około miliarda osób na świecie definiuje się jako osoby niereligijne. Doktor John Shaver z Otago's Religion Programme i jego zespół twierdzą, że znaleźli przyczynę, dla której religie nie zanikają tak szybko, jak to zapowiadano. Zdaniem nowozelandzkich uczonych jedną z najważniejszych przyczyn trwałości religii jest fakt, że osoby religijne mają większe rodziny, gdyż otrzymują więcej pomocy w wychowywaniu dzieci niż osoby niereligijne. Religijność w Nowej Zelandii zmniejsza się od dekad. My znaleźliśmy przyczynę, która równoważy ten trend spadkowy, a przyczyna ta ma związek z dynamiką współpracy przy wychowywaniu dzieci w społecznościach religijnych. Pomoc matkom to jedna z przyczyn sukcesu ewolucyjnego naszego gatunku. We współczesnym świecie matki otrzymują znacznie mniej pomocy, niż w przeszłości. Zaś mniej pomocy zmniejsza płodność. Jednak, jak się okazuje, religijne matki otrzymują więcej pomocy niż matki niereligijne, mówi Shaver. Na potrzeby badań przeanalizowano dane 12 980 osób, które wzięły udział w New Zealand Attitudes and Values Study (NZAVS). Badania te, prowadzone przez profesora Chrisa Sibleya z University of Auckland, zawierają dane od dużej próbki mieszkańców Nowej Zelandii. Połowa obywateli tego kraju deklaruje się jako osoby niewierzące. Shaver stwierdza: Odkryliśmy, że ludzie religijny mają więcej dzieci, a te osoby religijne, które akurat dzieci nie mają z większym prawdopodobieństwem pomagają w opiece nad dziećmi niż osoby niewierzące, które nie mają dzieci. Nasze badania wyjaśniają, dlaczego religijne nie znikają tak szybko, jak wielu przewidywało. Ludzie religijni mogą mieć więcej dzieci, gdyż otrzymują przy ich wychowywaniu więcej pomocy niż ludzie niewierzący. Mamy nadzieję, że uzyskane przez nas wyniki zwrócą uwagę na wpływ wiary na podstawowe procesy biologiczne i społeczne ludzi. Współautor badań, profesor Joseph Bulbulia zauważa, że wyniki takie są zgodne z wynikami wcześniejszych badań, które wskazywały, że osoby wierzące mogą liczyć na większą współpracę w grupie niż osoby niewierzące. Oczywiście pomoc przy wychowywaniu dzieci to tylko jeden z elementów, dla których religijne są trwałe, ale to ważny pierwszy krok w zrozumieniu fenomenu, który jest niezwykle istotny dla przewidywania struktury społecznej przyszłości, mówi uczony. Innym interesującym spostrzeżeniem jest stwierdzenie, że w porównaniu z Nowozelandczykami o europejskich korzeniach, Maorysi i mieszkańcy wysp Pacyfiku mają więcej dzieci, a Azjaci mniej. Maorysi i wyspiarze częściej bowiem opiekują się dziećmi, które nie są ich własnymi dziećmi, a Azjaci znacznie mniej angażują się we wspólną opiekę nad dziećmi. I znowu, w skali całego kraju, oznacza to, że płodność i współpraca w grupie są ze sobą skorelowane. I we wszystkich grupach etnicznych widoczny jest wpływ religii na wspólną opiekę nad dziećmi i płodność, dodaje Bulbulia. « powrót do artykułu
  11. Rozdzielczość, określająca zdolność rozróżniania blisko położonych obiektów, jest jednym z kluczowych parametrów technik mikroskopowych. Naukowcy z Instytutu Naukowego Weizmanna w Izraelu oraz Wydziału Fizyki Uniwersytetu Warszawskiego zaproponowali i zademonstrowali nową metodę mikroskopii – Quantum Image Scanning Microscopy – opartą na dwóch znanych już technikach i łączącą ich zalety. Jest to pierwsze wykorzystanie kwantowych własności światła fluorescencji do obrazowania próbek biologicznych. Zastosowanie Q-ISM prowadzi do istotnej poprawy rozdzielczości otrzymywanych obrazów względem standardowych metod. Mikroskop optyczny umożliwia tworzenie powiększonych obrazów badanych przedmiotów, co czyni go jednym z podstawowych narzędzi nauk przyrodniczych. Biologów często interesują obserwacje bardzo małych obiektów, nawet mniejszych niż mikrometr, co stanowi wyzwanie, gdyż rozdzielczość klasycznego mikroskopu jest ograniczona – obiekty będące bliżej niż połowa długości fali światła (ok. 250 nm dla światła zielonego) przestają być rozróżnialne. Jedną z podstawowych technik mikroskopowych używanych w naukach przyrodniczych jest mikroskopia fluorescencyjna. Wykorzystuje ona specjalne znaczniki, takie jak białko zielonej fluorescencji (green fluorescent protein, GFP), za którego odkrycie i badanie przyznano w 2008 roku Nagrodę Nobla w dziedzinie chemii. Użycie znaczników fluorescencyjnych pozwala obserwować wyłącznie interesujące części badanego obiektu. Jak się okazuje, umiejętne wykorzystanie własności znaczników fluorescencyjnych pozwala też przekroczyć ograniczenia rozdzielczości w klasycznej mikroskopii, za co również przyznano Nagrodę Nobla w dziedzinie chemii w roku 2014. Obecnie istnieje wiele technik pozwalających ominąć ograniczenie dyfrakcyjne, z którego wynika ograniczona rozdzielczość mikroskopu optycznego. Jedną z nich jest mikroskopia konfokalna, w której obraz powstaje poprzez przeskanowanie obiektu i rejestrację natężeń w każdym punkcie skanu za pomocą detektora bez rozdzielczości przestrzennej (np. 1 piksela kamery). Zmniejszając rozmiar detektora można poprawić rozdzielczość kosztem ilości zarejestrowanego światła, w praktyce uzyskując rozdzielczość ok. 1,5 raza większą niż w klasycznym mikroskopie. Mikroskop konfokalny można zmodyfikować, zastępując pojedynczy detektor wieloma detektorami małych rozmiarów. Dzięki temu uzyskuje się wiele przesuniętych względem siebie obrazów o wyższej rozdzielczości, które następnie nakłada się na siebie. Ta metoda, nazwana Image Scanning Microscopy (ISM) pozwala uzyskać obraz o wyższej rozdzielczości bez zbędnej utraty sygnału, w przeciwieństwie do mikroskopu konfokalnego, w którym poprawa rozdzielczości jest uzyskiwana kosztem poziomu sygnału. Każdy ze znaczników fluorescencyjnych, wzbudzony krótkim błyskiem światła, może wyemitować tylko jeden foton. Prowadzi to do antygrupowania fotonów (ang. photon antibunching). Ten kwantowo-mechaniczny efekt jest podstawą mikroskopii korelacji kwantowych, którą intuicyjnie rozumieć można jako wykrywanie brakujących (względem klasycznego światła) par fotonów w danym punkcie. Detekcja pary może być traktowana podobnie do detekcji pojedynczego fotonu o dwukrotnie mniejszej długości fali, co przekłada się na dwukrotnie wyższą rozdzielczość przestrzenną. Możliwe jest wykorzystanie korelacji wyższych rzędów, co prowadzi do n-krotnej poprawy rozdzielczości dla korelacji n-tego rzędu. Naukowcy z Instytutu Naukowego Weizmanna w Izraelu oraz Wydziału Fizyki Uniwersytetu Warszawskiego zaproponowali i zademonstrowali nową metodę nazwaną Quantum Image Scanning Microscopy (Q-ISM), opartą na połączeniu ISM oraz mikroskopii korelacji kwantowych i łączącą zalety obu technik. Rejestracja informacji o brakujących parach wymaga detektorów zdolnych do wykrywania pojedynczych fotonów, których nie wykorzystywano dotychczas w standardowym ISM. Mikroskopia korelacji kwantowych liczy brakujące pary fotonów w każdym punkcie skanu przy pomocy detektora bez rozdzielczości przestrzennej. Zastosowanie wielopikselowego detektora oraz adaptacja metody analizy danych do mikroskopii korelacji kwantowych umożliwiła pomiary korelacji w przestrzeni, zwiększając rozdzielczość układu. Mikroskopia korelacji kwantowych dostarcza informacji komplementarnych do tych otrzymywanych z ISM, co pozwala poprawić rozdzielczość i jakość otrzymywanych obrazów. W opublikowanej w prestiżowym czasopiśmie Nature Photonics pracy naukowcy porównali między innymi rozdzielczość przestrzenną metod ISM oraz Q-ISM, otrzymując poprawę rozdzielczości odpowiednio o czynnik 1,3 oraz 1,8 względem standardowego mikroskopu szerokiego pola. Zgodnie z wiedzą autorów jest to pierwsze wykorzystanie kwantowych własności światła fluorescencji do obrazowania próbek biologicznych. Połączenie wysokiej rozdzielczości Q-ISM z wysokim stosunkiem sygnału do szumu standardowej ISM może prowadzić do metody obrazowania znacznie przekraczającej możliwości każdej z technik z osobna. « powrót do artykułu
  12. Podczas sprzątania pomieszczeń Szkoły Chemii Uniwersytetu w St Andrews znaleziono najstarszą tablicę okresową pierwiastków. Pomoc edukacyjna dla wykładowców pochodzi z 1885 r. W 2014 r. natknął się na nią dr Alan Aitken. Od czasu, gdy Szkoła przeprowadziła się w 1968 r. do nowej lokalizacji, przestrzeń magazynowa znacznie się zagraciła. Po miesiącach segregowania sprzętów, odczynników itp. naukowcy natknęli się na stos rulonów z wykresami i schematami. Wśród nich znajdował się układ okresowy pierwiastków, który po dotknięciu dosłownie się rozpadał. Ponieważ szybko się zorientowano, że może to być najstarszy zachowany przykład edukacyjnej tablicy okresowej pierwiastków, dokument wymagał natychmiastowego uwierzytelnienia i konserwacji. Prawo okresowości pierwiastków zostało sformułowane przez Dymitra Mendelejewa w 1869 r. Szkoci podkreślają, że tablica z ich zbiorów przypomina 2. wersję tablicy z 1871 r. Jest ona sporządzona po niemiecku, a w dolnym lewym rogu znajduje się podpis - Verlag v. Lenoir & Forster, Wien - wskazujący na drukarnię naukową, działającą w Wiedniu między 1875 i 1888 r. Druga inskrypcja z prawego dolnego rogu - Lith. von Ant. Hartinger & Sohn, Wien - identyfikuje litografa, który zmarł w 1890 r. Prof. Eric Scerri, ekspert od historii układu okresowego pierwiastków z Uniwersytetu Kalifornijskiego w Los Angeles, stwierdził na podstawie uwzględnionych pierwiastków, że pomoc dla wykładowców powstała między 1879 a 1886 r. Odkryte, odpowiednio, w 1875 i 1879 r. gal i skand są tu bowiem zamieszczone, ale odkrytego w 1886 r. germanu już nie ma. Kiepski stan wykresu to m.in. skutek zwijania i zastosowania ciężkiego lnianego podkładu. Zabytek poddano różnym zabiegom konserwatorskim. Uzyskane fundusze pozwoliły na stworzenie pełnowymiarowej kopii (faksymile) tablicy. Obecnie można ją podziwiać w Szkole Chemii Uniwersytetu w St Andrews. Oryginał jest przechowywany w klimatyzowanym dziale kolekcji specjalnych. M. Pilar Gil z działu kolekcji specjalnych znalazła w księgach finansowych zapis, że w październiku 1888 r. Thomas Purdie kupił z katalogu C. Gerhardta za 3 marki tablicę z 1885 r. Purdie był profesorem chemii od 1884 r. Na emeryturę przeszedł w 1909 r. Mianowanie Purdie'ego stanowiło ważną zmianę w St Andrews. Jego poprzednicy byli mineralogami, a na Purdie'ego znaczący wpływ miał zachodzący w owym czasie postęp w zakresie chemii organicznej. « powrót do artykułu
  13. Trędowaci nie byli w czasach Jezusa tak bardzo wykluczeni społecznie, jak się obecnie uważa. Dlatego też, jak twierdzi Myrick Shinall, należy w tym świetle zmienić interpretację postępowania Jezusa, który zlekceważył zapisane w Księdze Kapłańskiej prawa określające stosunek do trędowatych. Shinall, który jest profesorem chirurgii i doktorem religioznawstwa przeanalizował Nowi i Stary Testament oraz współczesne im teksty religijne pod kątem historii dotyczących trądu i trędowatych. Jego analizy pozwoliły mu na wysunięcie stwierdzenia, że co prawda istniało wiele praw i obyczajów, mających na celu odseparowanie trędowatych od reszty społeczeństwa, ale nie były one uniwersalnie przestrzegane we wszystkich społecznościach i w każdej epoce. Jak zauważył Shinall, w ewangeliach znajdziemy liczne ustępy świadczące o tym, że trędowaci byli dość mocno zintegrowani ze społeczeństwem. Zdaniem uczonego przekonanie o silnej izolacji trędowatych może mieć swoje źródła w działaniu pierwszych uczonych chrześcijańskich, którzy starali się podkreślić świętość Jezusa poprzez nadmierne izolacji, jakiej trędowaci mieli podlegać w ówczesnym społeczeństwie. Dla chrześcijańskich interpretatorów Biblii musiało być bardzo kuszące, by jaki dobry był Jezus poprzez skontrastowanie go ze złym żydowskim społeczeństwem. Jednak musimy oprzeć się takiej interpretacji, gdyż nie tylko przedstawia ona historię w złym świetle, ale utrwala negatywny obraz judaizmu, który do dzisiaj napędza antysemityzm, czasami ze śmiertelnymi konsekwencjami. Ponadto, jak stwierdza Shinall, brak dowodów na znaczą izolację trędowatych powinien skłonić interpretatorów Biblii do większego skupienia się na samym cudzie uzdrowienia trędowatego, a nie na wprowadzaniu do interpretacji biblijnych współczesnych elementów wykluczenia społecznego. « powrót do artykułu
  14. Uzyskane stosunkowo niedawno białka, centyryny, mogą zwalczać zakażenia wywołane przez gronkowca złocistego (Staphylococcus aureus). Warto przy tym pamiętać, że metycylinooporny gronkowiec złocisty (MRSA) znajduje się na liście bakterii, które wg WHO, w największym stopniu zagrażają ludzkiemu zdrowiu i najpilniej wymagają stworzenia nowych leków. Zgodnie z naszym stanem wiedzy, to pierwszy raport, który pokazuje, że białka zwane centyrynami mogą potencjalnie blokować skutki ciężkich zakażeń S. aureus u myszy oraz podczas eksperymentów na ludzkich komórkach - podkreśla dr Victor Torres z NYU Langone Health. Badanie przedkliniczne pokazało, że wybrana grupa centyryn zaburza działanie 5 toksyn, na których gronkowiec złocisty polega, wymykając się ludzkiemu układowi odpornościowemu i atakując tkanki. Oddziałując na aktywność bakterii bez ich niszczenia, nowa metoda pomaga zapobiegać lekooporności. Jak tłumaczą autorzy publikacji z pisma Science Translational Medicine, centyryny są małymi rusztowaniami białkowymi, pozyskiwanymi z domeny fibronektyny typu III (ang. fibronectin type III domain, FN3) ludzkiego białka - tenasycyny C. W ciągu lat badań Torres i inni stwierdzili, że S. aureus atakują, uwalniając cytolityczne toksyny. Jedną z nich, leukocydynę AB, odkryto zresztą w laboratorium Torresa. Toksyny te dziurawią komórki odpornościowe i niszczą je, nim mają one szansę zniszczyć bakterie. W ramach najnowszych badań Amerykanie posłużyli się białkiem macierzystym centyryn i uzyskali bardzo liczny zbiór protein, które nieznacznie różniły się budową. Skryning tej biblioteki ujawnił 209 centyryn wiążących się z fragmentami 5 głównych leukotoksyn S. aureus (PVL, HlgAB, HlgCB, LukED i LukAB). Podczas eksperymentów myszom podawano śmiertelną dawkę gronkowcowej toksyny LukED. Gryzonie, którym zawczasu zaaplikowano dawkę białka macierzystego (nieprzeznaczonego do wiązania z tą toksyną), zginęły. Osobniki, którym podano "celowaną" centyrynę SM1S26, przeżyły. Nawet wtedy, gdy przeciwtoksynową centyrynę podawano 4 godziny przed zakażeniem S. aureus - to scenariusz bardziej przypominający rzeczywistość kliniczną - przeżywało 50% zwierząt, w porównaniu do 0% w grupie kontrolnej. Naukowcy pracują też nad rozwiązaniem, które łączy centryny z antystafylokokowymi przeciwciałami monoklonalnymi (ang. monoclonal antibodies, mABs) w nową klasę białek - MABtyryny. Mogą one skuteczniej neutralizować gronkowce złociste. « powrót do artykułu
  15. John Wilson, profesor inżynierii chemicznej i biomolekularnej oraz Rebecca Cook, profesor biologii komórkowej i rozwojowej, stali na czele zespołu, który uruchomił obecnie w komórkach raka piersi limfocyty i aktywował w ten sposób dwa rodzaje śmierci komórek nowotworowych. Guzy raka piersi charakteryzują się zmniejszoną obecnością infiltrujących je limfocytów i przez to uznawane są za nieodpowiednie cele w terapii mającej na celu uruchomienie odpowiedzi układu odpornościowego. Jednak uczeni z Vanderbilt University byli w stanie aktywować obecne w guzie limfocyty. Wykorzystali w tym celu syntetycznego agonistę, czyli substancję łączącą się z receptorem, RIG-I (retionic acid-inducible gene I). To receptor aktywujący się w odpowiedzi przeciwwirusowej. Naukowcy odkryli, że antagonista RIG-I zwiększa ekspresję czynników prozapalnych i uruchamia dwa typy śmierci komórkowej, apoptozę i pyroptozę. W przypadku guza nowotworowego u myszy aktywacja RIG-I doprowadziła do zwiększenia liczby limfocytów obecnych w guzie i do spowolnienia wzrostu guza oraz przerzutów. Praca Wilsona i Cook pokazuje, że związki będące agonistami RIG-I mogą być silnymi lekami terapeutycznymi w leczeniu nowotworu piersi. Nasza praca to pierwszy przykład na dostarczenie in vivo agonistów RIG-I do guzów oraz demonstracja silnego immunogenicznego i terapeutycznego działania w tym kontekście, stwierdzili autorzy badań. Rak piersi, pomimo olbrzymich nakładów na jego zrozumienie i leczenie, pozostaje drugąim najbardziej śmiercionośnym nowotworem dotykającym kobiety. « powrót do artykułu
  16. Prestiżowy The Lancet publikuje wyniki badań, z których dowiadujemy się, że konieczna jest radykalna zmiana diety i sposobu produkcji żywności, jeśli chcemy uniknąć milionów zgonów i katastrofalnego zniszczenia planety. Zmiana musi być naprawdę znacząca. Zdaniem ponad 30 badaczy ludzkość powinna zjadać o połowę mniej cukru i czerwonego mięsa i dwukrotnie więcej warzyw, owoców oraz orzechów. Stoimy w obliczu katastrofy, mówi profesor Tim Lang, który stoi na czele EAT-Lancet Commision, która jest autorem badań. Obecnie około miliarda osób na świecie cierpi głód, a dwa miliardy jedzą zbyt dużo niezdrowej żywności, powodując epidemię otyłości, cukrzycy i chorób serca. Z powodu niezdrowej diety na całym świecie rocznie przedwcześnie umiera nawet 11 milinów osób. Jednocześnie przemysł spożywczy jest największym emitentem gazów cieplarnianych, głównym powodem utraty bioróżnorodności oraz główną przyczyną śmiercionośnych zakwitów alg u wybrzeży morskich i na wodach śródlądowych. Rolnictwo, które przekształciło niemal połowę powierzchni lądów, zużywa też do 70% globalnych wody pitnej. Jeśli mamy mieć jakiekolwiek szanse, by w 2050 roku wyżywić 10 miliardów ludzi musimy przestawić się na zdrową dietę, zmniejszyć ilość marnowanej żywności oraz zainwestować w technologie, które zmniejszą wpływ rolnictwa na środowisko, mówi Johan Rockstrom, dyrektor Poczdamskiego Instytutu Badań nad Wpływem Zmian Klimatu. To jest do zrobienia, ale wymaga rewolucji w rolnictwie, dodaje. Podstawą do osiągnięcia pożądanego stanu rzeczy jest spowodowanie, by przeciętny człowiek zjadał około 2500 kalorii dziennie.Nie chodzi o to, żeby wszyscy jedli tak samo. Ale patrząc na to szerzej, i dotyczy to przede wszystkim mieszkańców bogatych krajów, oznacza to zmniejszenie spożycia mięsa i nabiału, a znaczące zwiększenie konsumpcji roślin, dodaje Rockstrom. Naukowcy określili, że taka idealna dla świata dieta składa się z od 7 do nie więcej niż 14 gramów czerwonego mięsa na dobę. Tymczasem typowy hamburger zawiera 125-150 gramów mięsa. To pokazuje, jak olbrzymie zmiany musiałyby zajść w krajach najbogatszych oraz w tych szybko się bogacących, jak Chiny czy Brazylia. Głównym „rolniczym” winowajcą dewastacji planety jest wołowina. Jeśli chodzi o zmiany klimatyczne, to węgiel jest tym, co najgorsze, najbrudniejszym z paliw kopalnych. W rolnictwie takim odpowiednikiem węgla jest wołowina, wyjaśnia Rockstrom. Krowy wydzielają duże ilości metanu, a na potrzeby pastwisk wycinane są olbrzymie połacie lasów. Jakby jeszcze tego było mało, na potrzeby bydła przeznacza się olbrzymie ilości wody pitnej, wyprodukowanie kilograma wołowiny wymaga zużycia co najmniej 5 kilogramów ziarna, a konsumenci wyrzucają do śmieci około 30% mięsa. Jeśli chodzi o spożycie nabiału, to nie powinno ono przekraczać około 250 gramów mleka dziennie. Idealna dla planety dieta zakłada też jedzenie nie więcej niż 2 jajek w tygodniu. Jednocześnie zaś ludzie musieliby jest dwukrotnie więcej roślin, owoców i orzechów. Obecna dieta nie jest w stanie wyżywić ludzkości. Po raz pierwszy od 200 000 lat nasza dieta w sposób znaczący rozmija się z możliwościami planety i przyrody, mówi wydawca The Lancet, Richard Horton. Idealna dla zdrowia i planety dieta powinna zawierać 300 gramów warzyw, 200 gramów owoców, 50 gramów warzyw bogatych w błonnik (np. ziemniaki), 40 gramów tłuszczów nienasyconych, 31 gramów sztucznie dodanego cukru, 25 gramów orzeszków ziemnych, 25 gramów soi, 25 gramów orzechów z drzew (włoskie, migdały), 14 gramów czerwonego mięsa, 5 gramów smalcu lub łoju, 13 gramów jajek (ok 1,5 jajka na tydzień), 29 gramów drobiu, 28 gramów ryb i owoców morza, 50 gramów fasoli i podobnych produktów, 232 gramy ziaren (ryż, kukurydza, pszenica) i 250 mleka i produktów mlecznych. « powrót do artykułu
  17. Dzięki badaniom naukowców z University of Bristol coraz więcej wiemy o diecie neolitycznych mieszkańców południowo-wschodniej Europy. Naukowcy badali pozostałości pożywienia, znalezione w ceramice liczącej sobie ponad 8000 lat. W tym czasie na terenie Europy rozprzestrzeniło się rolnictwo, a mieszkańcy badanych terenów stopniowo porzucali żywność pochodzącą z akwenów słodkowodnych, za to coraz chętniej jedli mięso zwierząt lądowych oraz nabiał. Badania, których wyniki opublikowano w Royal Society Proceedings B pokazują, że mieszkańcy regionu Żelaznej Bramy na Dunaju, czyli obszaru dzisiejszego pogranicza serbsko-rumuńskiego, nadal trudnili się przetwarzaniem ryb, głównym źródłem ich pożywienia było mięso i nabiał. Region Żelaznej Bramy  jest bardzo ważny z naukowego punktu widzenia. Znaleziono tam bowiem zarówno osady łowców-zbieraczy z późnego mezolitu, jak i pierwsze przejawy kultury neolitu, którą charakteryzowało pojawienie się ceramiki, udomowionych roślin i zwierząt oraz odmienne od wcześniejszych zwyczaje grzebalne. Jest to też zróżnicowany przyrodniczo region, który zapewniał prehistorycznym społecznościom łowców-zbieraczy dostęp do bogatych zasobów pożywienia wodnego. W miarę rozprzestrzeniania się rolnictwa, dieta ludzi w coraz większym stopniu zaczęła bazować na udomowionych roślinach i zwierzętach. Jednak w regionie Żelaznej Bramy znaleziono dowody, że tamtejsi mieszkańcy jeszcze we wczesnym neolicie w znacznej mierze polegali na dzikich roślinach i zwierzętach. Doktor Lucy Cramp, która stała na czele zespołu badawczego mówi, że analiza resztek żywności z naczyń ceramicznych wskazuje, iż wielką rolę w diecie mieszkańców okolic Żelaznej Bramy odgrywała żywność pozyskiwana z wody. Tymczasem w pobliskich regionach w takiej samej ceramice z tego okresu znaleziono pozostałości po mięsie owiec, kóz, krów oraz po nabiale. Nawet w innych regionach Europy, także tych położonych w pobliżu dużych rzek, główną część diety stanowiły udomowione rośliny i zwierzęta. Okolice Żelaznej Bramy wyraźnie się więc różniły. « powrót do artykułu
  18. Naukowcy z Uniwersytetu Kalifornijskiego w Irvine prześledzili wpływ postu na zegary biologiczne wątroby i mięśni szkieletowych. Na dłuższą metę zachodzące zmiany metaboliczne sprzyjają poprawie zdrowia i zapewniają ochronę przed chorobami związanymi ze starzeniem. Odkryliśmy, że poszczenie wpływa na zegary biologiczne oraz indukowane głodówką reakcje komórkowe, co łącznie prowadzi do osiągnięcia specyficznej dla postu czasowej regulacji genów. Mięśnie szkieletowe wydają się 2-krotnie bardziej responsywne na post niż wątroba - opowiada prof. Paolo Sassone-Corsi. Amerykanie poddawali myszy dobowym postom. Podczas głodówki spadały pobór tlenu (VO2), współczynnik wymiany gazowej (ang. respiratory exchange ratio, RER), a także wydatkowanie energii. Zjawiska to zanikały po nakarmieniu (podobne rezultaty obserwowano u ludzi). Autorzy artykułu z pisma Cell Reports stwierdzili, że transkrypcyjna reakcja na głodówkę zachodzi za pośrednictwem innych mechanizmów molekularnych niż w przypadku konsumpcji w oknie ograniczonym czasowo (ang. time-restricted feeding, TRF). Post wpływa na geny rdzenia zegara i kodowane przez nie białka. Osłabieniu ulega rytmiczna ekspresja BMAL1 i REV-ERBα w wątrobie i mięśniach szkieletowych. Wrażliwe na post czynniki transkrypcyjne, takie jak GR, CREB, FOXO, TFEB i PPARs, prowadzą do zmian metabolicznych w różnych tkankach. Rytmiczną reakcję na głodówkę przejawia znacząca liczba genów. Jest ona tkankowo specyficzna; podczas eksperymentu mięśnie szkieletowe zyskały np. niemal 2-krotnie więcej nowych oscylujących genów niż wątroba. Godne uwagi jest to, że rytmiczna reakcja transkrypcyjna wydaje się podtrzymywana przez wydłużoną głodówkę i zanika po jedzeniu. « powrót do artykułu
  19. Pojawiły się doniesienia, jakoby procesor Intela Core i9-9990XE miał być sprzedawany poza tradycyjnym kanałem detalicznym. Z dokumentów, do których dotarli dziennikarze, wynika, że układ będzie dostępny wyłącznie na zamkniętych online'owych aukcjach dla firm budujących systemy komputerowe. Core i9-9990XE to 14-rdzeniowy, 28-wątkowy procesor taktowany zegarem o częstotliwości od 4 do 5 GHz. Jego TDP wynosi 255 watów. Układ ma być oferowany wybranym klientom na aukcjach. Te zaś mają odbywać się raz na kwartał. Pierwszą z nich zaplanowano na trzeci tydzień bieżącego roku. To zaś oznacza, że cena procesora nie jest stała i z góry ustalona, a będzie uzależniona od tego, na ile kość wycenią potencjalni klienci. W pierwszej aukcji wezmą udział tylko 3 wybrane przez Intela firmy. Taki a nie inny system sprzedaży oznacza, że Intelowi nie zależy na tym, by Core i9-9990XE trafił na masowy rynek. Jako, że procesory te będą niezwykle precyzyjnie sortowane podczas produkcji, by odrzucić wszelkie elementy zawierające jakiekolwiek wady, można spodziewać się, że co kwartał na aukcje trafi zaledwie kilkaset sztuk. Niewykluczone, że cena pojedynczego i9-9990XE przekroczy 2000 USD. « powrót do artykułu
  20. Na rzece Presumpscot w stanie Maine powstał olbrzymi obracający się krąg lodowy. Jak można się dowiedzieć z profilu miasta Westbrook na Facebooku, jego średnica sięga ok. 91 m. Na lodzie podróżują kaczki i inne ptaki. Po zawiadomieniu od lokalnego przedsiębiorcy władze uwieczniły krąg za pomocą drona. O wiele mniejszy, bo ok. 20-m krąg sfilmowano w styczniu na rzece Vigala w Estonii. Kręgi lodowe powstają naturalnie w wolno płynących wodach. Uważa się, że tworzą się przy cofce. Ich ruch obrotowy utrzymuje się dzięki topnieniu.   « powrót do artykułu
  21. Tesla jest kolejną, obok Microsoftu, Oracle'a, Adobe i VMware, firmą, która postanowiła skonfrontować swój produkt z umiejętnościami hakerów biorących udział w zawodach Pwn2Own, które odbędą się w marcu. Nagrody pieniężne za przełamanie zabezpieczeń Tesli Model 3 wahają się od 35 000 do 250 000 dolarów. Uczestnicy mogą też wygrać samochód. Najwyższą nagrodę, 250 000 dolarów, przewidziano dla osoby, przełamie zabezpieczenia Tesla Gateway, Autopilota lub VCSEC (Vehicle Controller Secondary) i przyzna sobie prawa do wykonywania programów. Za udany atak na modem lub tuner w Tesli przewidziano 100 000 USD, a za atak typu DoS na Autopilota będzie można zdobyć 50 000 dolarów. Za złamanie zabezpieczeń kluczyka lub wykorzystanie smartfonu w roli kluczyka otrzymamy 100 000 dolarów. Tyle samo zarobimy, jeśli uda się nam przejąć kontrolę nad magistralą CAN (Controller Area network). Tesla zapłaci też do 50 000 dolarów za takie przełamanie zabezpieczeń, które da nam kontrolę administracyjną nad danym komponentem nawet po przeładowaniu systemu. Duże pieniądze można będzie zarobić nie tylko atakując samochód Tesli. Microsoft zaoferował 250 000 USD za każdy udany atak na klienta Hyper-V, podczas którego zwiększymy swoje uprawnienia z klienta do hosta. To niezwykle ważny element w strategii Microsoftu, który coraz mocnej inwestuje w chmury komputerowe, dlatego też firmie szczególnie zależy na bezpieczeństwie Hyper-V. Byłoby dla niej katastrofą, gdyby pojawiła się publicznie znana dziura pozwalająca na przejęcie klientowi kontroli nad hostem. Dlatego też koncern poddaje swoje produkty testom podczas Pwn2Own. WMware, które specjalizuje się w oprogramowaniu do wirtualizacji postanowiło poddać próbie VMware ESXi oraz WMware Workstation. Za przełamanie ich zabezpieczeń firma płaci, odpowiednio, 150 000 i 70 000 dolarów. Z kolei firma Oracle zaoferowała 35 000 dolarów za załamanie zabezpieczeń swojego VirtualBox. Hakerzy będą mogli też spróbować swoich sił przeciwko przeglądarkom, Windows Defender Application Guard, Microsoft Outlook czy Adobe Reader. Ponadto autor pierwszego udanego ataku podczas Pwn2Own również otrzyma Teslę Model 3. « powrót do artykułu
  22. Gorączka zmienia białka powierzchniowe komórek odpornościowych (limfocytów), by łatwiej im się migrowało do miejsca zakażenia. Dobrą stroną gorączki jest to, że sprzyja przemieszczaniu limfocytów do miejsca zakażenia. Z patogenem może więc walczyć większa liczba komórek odpornościowych - opowiada prof. JianFeng Chen z Szanghajskiego Instytutu Biochemii i Biologii Komórki (SIBCB). By dostać się do miejsca infekcji, leukocyty przywierają (kotwiczą) do ściany naczynia krwionośnego lub małej żyły i migrują do przestrzeni pozanaczyniowej tkanek. Na tym etapie odpowiedzi immunologicznej na ich powierzchni dochodzi do ekspresji integryn; integryny są glikoproteinowymi receptorami transbłonowymi, zalicza się je do białek adhezyjnych (adhezyn). Zespół Chena odkrył, że gorączka zwiększa ekspresję białka szoku cieplnego 90 (ang. heat shock protein 90, HSP90) w limfocytach T. HSP90 wiąże się zaś z integrynami α4, co sprzyja adhezji limfocytów do naczyń i migracji do miejsca zakażenia. Naukowcy odkryli, że jedno HSP90 może się wiązać z dwiema integrynami, prowadząc do gromadzenia się integryn na powierzchni limfocytów. Zagregowane integryny aktywują szlak sygnalizacyjny, który sprzyja transmigracji limfocytów. Nasze wyniki pokazują, że ten mechanizm odnosi się zarówno do limfocytów, jak i komórek odporności wrodzonej, np. monocytów. To ogólny mechanizm, który może się odnosić do wielu różnych komórek odpornościowych, w których dochodzi do ekspresji integryn α4. Podczas badań na zwierzętach z zakażeniem bakteryjnym naukowcy wykazali, że zablokowanie szlaku HSP90-integryny prowadzi do szybkiej śmierci myszy. Okazało się też, że mechanizm ten jest bardzo specyficzny temperaturowo. Stwierdziliśmy, że HSP90 może być indukowane wyłącznie w temperaturze powyżej 38,5°C. Ekipa z Szanghaju uważa, że ekspresję HSP90 mogą indukować stresory inne niż gorączka i że szlak obejmujący HSP90 oraz integryny α4 ma też coś wspólnego z chorobami autoimmunologicznymi czy nowotworami. « powrót do artykułu
  23. CERN opublikował wstępny raport projektowy (Conceptual Design Report), w którym zarysowano plany nowego akceleratora zderzeniowego. Future Circular Collider (FCC) miałby być niemal 4-krotnie dłuższy niż Wielki Zderzacz Hadronów (LHC) i sześciokrotnie bardziej potężny. Urządzenie, w zależności od jego konfiguracji, miałoby kosztować od 9 do 21 miliardów euro. Publikacja raportu odbyła się w ramach programu European Strategy Update for Particle Pysics. Przez dwa kolejne lata specjaliści będą zastanawiali się nad priorytetami w fizyce cząstek, a podjęte decyzje wpłyną na to, co w tej dziedzinie będzie się działo w Europie w drugiej połowie bieżącego stulecia. To olbrzymi krok, tak jakbyśmy planowali załogową misję nie na Marsa, a na Uran, mówi Gian Francesco Giudice, który stoi na czele wydziału fizyki teoretycznej CERN i jest przedstawicielem tej organizacji w Physics Preparatory Group. Od czasu odkrycia bozonu Higgsa w 2012 roku LHC nie odkrył żadnej nowej cząstki. To pokazuje, że potrzebne jest urządzenie, które będzie pracowało z większymi energiami. Halina Abramowicz, fizyk z Tel Aviv University, która kieruje europejskim procesem opracowywania strategii rozwoju fizyki cząstek, nazwała propozycję CERN „bardzo ekscytującą”. Dodała, że projekt FCC będzie szczegółowo rozważany razem z innymi propozycjami. Następnie Rada CERN podejmie ostateczną decyzję, czy należy sfinansować FCC. Jednak nie wszyscy uważają, że nowy zderzacz jest potrzebny. Nie ma żadnych podstaw, by sądzić, że przy energiach, jakie mógłby osiągnąć ten zderzacz, można będzie dokonać jakichś znaczących odkryć. Wszyscy to wiedzą, ale nich nie chce o tym mówić, stwierdza Sabine Hossenfelder, fizyk teoretyk z Frankfurckiego Instytutu Zaawansowanych Badań. Jej zdaniem pieniądze, które miałyby zostać wydane w FCC można z większym pożytkiem wydać na inne urządzenia, na przykład na umieszczenie na niewidocznej stronie Księżyca dużego radioteleskopu czy też zbudowanie na orbicie wykrywacza fal grawitacyjnych. Takie inwestycje z większym prawdopodobieństwem przyniosą znaczące odkrycia naukowe. Jednak Michael Benedikt, fizyk, który stał na czele grupy opracowującej raport nt. FCC mówi, że warto wybudować nowy zderzacz niezależnie od spodziewanych korzyści naukowych, gdyż tego typu wielkie projekty łączą instytucje naukowe ponad granicami. Hossenfelder zauważa, że podobnie łączą je inne duże projekty naukowe. Prace nad FCC rozpoczęły się w 2014 roku i zaangażowało się w nie ponad 1300 osób i instytucji. Rozważanych jest kilka konfiguracji, a większość z nich zakłada, że FCC powstanie obok LCH, a jego tunele będą miało 100 kilometrów długości. Sama budowa tunelu i powiązanej z nim infrastruktury naziemnej pochłoną około 5 miliardów euro. Kolejne 4 miliardy będzie kosztował akcelerator, w którym będą zderzanie elektrony z pozytonami. urządzenie miałoby pracować z energię do 365 gigaelektronowoltów. To mniejsza energia niż w LHC, jednak zderzenia lżejszych cząstek, jak elektron z pozytonem, dają znacznie bardziej szczegółowe dane niż zderzanie protonów, jakie zachodzi w LHC, zatem w FCC można by bardziej szczegółowo zbadać np. bozon Higgsa. FCC miałby zostać uruchomiony około roku 2040. Warto tutaj na chwilę się zatrzymać i przypomnieć opisywany przez nas projekt International Linear Collider. Przed ponad pięciu laty świat obiegła wiadomość o złożeniu szczegółowego raportu technicznego 31-kilometrowego liniowego zderzacza elektronów i pozytonów. Raport taki oznaczał, że można rozpocząć budowę ILC. Urządzenie to, dzięki swojej odmiennej od LHC architekturze, ma pracować – podobnie jak FCC – z elektronami i pozytonami i ma dostarczać bardziej szczegółowych danych niż LHC. W projekcie ILC biorą udział rządy wielu krajów, a najbardziej zainteresowana jego budową była Japonia, skłonna wyłożyć nawet 50% jego kosztów. Jednak budowa ILC dotychczas nie ruszyła. Brak kolejnych odkryć w LHC spowodował, że szanse na budowę ILC znacznie zmalały. Rząd Japonii ma 7 marca zdecydować, czy chce u siebie ILC. Inny scenariusz budowy FCC zakłada wydatkowanie 15 miliardów euro i wybudowanie w 100-kilometrowym tunelu zderzacza hadronów (kolizje proton–proton) pracującego z energią dochodzącą do 100 TeV, czyli wielokrotnie wyższą niż 16 TeV uzyskiwane w LHC. Jednak bardziej prawdopodobnym scenariuszem jest zbudowanie najpierw zderzacza elektronów i pozytonów, a pod koniec lat 50. bieżżcego wieku rozbudowanie go do zderzacza hadronów. Scenariusz taki jest bardziej prawdopodobny z tego względu, że skonstruowanie 100-teraelektronowoltowego zderzacza hadronów wymaga znacznie więcej badań. Gdybyśmy dysponowali 100-kilometrowym tunelem, to już moglibyśmy rozpocząć budowę zderzacza elektronów i pozytonów, gdyż dysponujemy odpowiednią technologią. Stworzenie magnesów dla 100-teraelektronowego zderzacza wymaga jeszcze wielu prac badawczo-rozwojowych, mówi Guidice. Trzeba w tym miejscu wspomnieć, że podobny projekt prowadzą też Chiny. Państwo Środka również chce zbudować wielki zderzacz. O ile jednak w FCC miałyby zostać wykorzystane magnesy ze stopu Nb3Tn, to Chińczycy pracują nad bardziej zaawansowanymi, ale mniej sprawdzonymi, nadprzewodnikami bazującymi na żelazie. Ich zaletą jest fakt, że mogą pracować w wyższych temperaturach. Jeśli pracowałyby przy 20 kelwinach, to można osiągnąć olbrzymie oszczędności, mówi Wang Yifang, dyrektor chińskiego Instytutu Fizyki Wysokich Energii. Także i Chińczycy uważają, że najpierw powinien powstać zderzacz elektronów i pozytonów, a następnie należy go rozbudować do zderzacza hadronów. Jako, że oba urządzenia miałyby bardzo podobne możliwości, powstaje pytanie, czy na świecie są potrzebne dwa takie same wielkie zderzacze. « powrót do artykułu
  24. Ok. 11,5 tys. lat temu na terenie dzisiejszej północno-wschodniej Jordanii ludzie nie tylko żyli u boku psów. Wykorzystywali je też prawdopodobnie do polowania, o czym może świadczyć duży wzrost liczby zajęcy i innych drobnych ofiar we wczesnoneolitycznych pozostałościach archeologicznych z natufijskiego stanowiska Shubayqa 6. Badanie zespołu z Uniwersytetu Kopenhaskiego i Uniwersyteckiego College'u Londyńskiego, którego wyniki ukazały się w Journal of Anthropological Archaeology, sugeruje, że ludzie cenili zdolności tropiąco-myśliwskie wczesnych psów w o wiele większym stopniu niż dotąd sądzono. Badanie dużego zbioru kości zwierzęcych ze stanowiska Shubayqa 6 ujawniło sporą proporcję kości z charakterystycznymi śladami przejścia przez przewód pokarmowy innego zwierzęcia. Kości te są zbyt duże, by mogli je przełknąć ludzie, musiały więc być strawione przez psy - wyjaśnia zooarcheolog Lisa Yeomans. Yeomans i jej koledzy wykazali, że Shubayqa 6 było zamieszkiwane przez cały rok, a to z kolei oznacza, że psy żyły raczej z ludźmi, a nie odwiedzały osadę, gdy nikogo tu nie było. Psy nie były trzymane na obrzeżach osady. Musiały być częścią wszystkich aspektów ówczesnego życia codziennego. Wolno im było swobodnie się przemieszczać, żerować na wyrzuconych kościach i załatwiać się w pobliżu. Analizując dane, zespół Yeomans odnotował towarzyszący pojawieniu się psów znaczący wzrost liczby zajęcy na stanowisku Shubayqa 6. Na zające polowano dla mięsa, a z ich kości wytwarzano koraliki. Wyjaśnieniem tego trendu może być wykorzystanie psów do [selektywnego] polowania na mniejsze, szybsze ofiary, np. zające i lisy (być może były one zaganiane do zagród) - podsumowuje Yeomans. « powrót do artykułu
  25. Literaturoznawcy tworzą oprogramowanie, które będzie wspierało twórców gier. Narzędzia badawcze używane przez polonistów pozwolą szybciej i taniej projektować skomplikowane struktury narracyjne i rozbudowane fabuły na miarę Wiedźmina. W Polsce intensywnie rozwija się przemysł związany z grami – ocenia dr Piotr Kubiński z Wydziału Polonistyki UW, który pasję gracza połączył z pracą zawodową, na początku – jako publicysta, a następnie doktorant w Instytucie Literatury Polskiej. Jego praca dotyczyła gier wideo. Obecnie prowadzi projekt badawczo-rozwojowy Narra, który ma przynieść korzyści przemysłowi. Jak zauważa, wiele firm tworzy gry, które często mają rozbudowane fabuły i skomplikowane struktury narracyjne. Wykreowanie świata, w którym gracz będzie mógł się uczyć, bawić, przeżywać przygody i doskonalić umiejętności to skomplikowany proces, angażujący kilkadziesiąt (czasem znacznie więcej) osób. Wśród nich są również pisarze, autorzy scenariuszy, artyści. GRA TO KOMPONOWANIE OPERY I BUDOWANIE MOSTU W ramach projektu badawczo-rozwojowego Narra dr Kubiński wraz z interdyscyplinarnym zespołem opracowuje oprogramowanie wspierające twórców gier. Narzędzia badawcze pozwolą szybciej i taniej projektować fabułę gry – tak, aby opowieść rozgałęziała się w zależności od decyzji gracza. Zaprojektowanie różnych wariantów fabuły oznacza, że trzeba uwzględnić bardzo wiele zmiennych. Narzędzie pozwoli w pełni wykorzystać potencjał medium, jakim jest gra. Inaczej, niż w tradycyjnym filmie i tradycyjnej literaturze, w grach fabularnych to od aktywności gracza zależy, jak akcja się rozwija. Jeżeli w jednym z wątków gracz postąpi uczciwie albo nieuczciwie wobec jakiejś postaci, pomoże komuś albo nie pomoże, zabije kogoś, odkryje jakąś tajemnicę lub nie – to gra potoczy się w odmienny sposób. Przy projektowaniu rozgałęzionego drzewo fabularnego trzeba to wszystko uwzględnić, żeby nie pojawiły się sprzeczności. I żeby każdy taki wybór niósł wartość fabularną. Im więcej zmiennych, tym bardziej jest to wymagające – tłumaczy dr Kubiński. Narra – narzędzie kompleksowo wspierające proces tworzenia fabuły w grach wideo – to projekt dofinansowany ze środków Narodowego Centrum Badań i Rozwoju. Jak zapewniają twórcy narzędzia, ma ono ułatwić i skrócić trzy elementy procesu tworzenia gry: prototypowanie fabuły, testowanie jej spójności logicznej oraz implementację fabuły w środowisku deweloperskim. Narra ma otworzyć rynek dla uzdolnionych pisarzy bez doświadczenia IT. Dr Kubiński przywołuje aforyzm, zgodnie z którym projektowanie gier wideo ma w sobie wszystko, co najtrudniejsze w komponowaniu opery – i wszystko, co najtrudniejsze w budowaniu mostów. Gry to opery zbudowane z mostów. Jego zdaniem jest to wybitnie inżynieryjna sztuka i rozwiązywanie zagadek logicznych w jednym. Tak jak pisarzowi potrzebny jest dobry edytor tekstu, tak dla twórcy fabuł i dialogów wartościowe jest złożone narzędzie. Badamy, czego potrzebują twórcy gier wideo i opracowujemy stosowny, złożony program – podsumowuje rozmówca PAP. Jak czytamy na stronie internetowej projektu Narra.pl, badania rynku wykazały niedostatek narzędzi do tworzenia fabuł gier wideo i ich zastosowania w grach. Scenarzyści, a także publicyści i naukowcy podejmujący ten temat, zwracają uwagę na to, że tworzenie fabuł gier wideo jest skomplikowane i wymusza kontrolowanie bardzo wielu zmiennych. Tworzenie wzajemnie uzupełniających się opowieści prowadzonych w różnych mediach wymaga dobrze zaprojektowanego świata – oraz najlepszego wykorzystania możliwości medium. Dobrze zaprojektowane światy sprawiają, że odbiorcy chcą do nich wracać, coraz lepiej je poznawać – a nawet je zamieszkiwać. « powrót do artykułu
×
×
  • Dodaj nową pozycję...