Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36957
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. Już dziś (19 listopada) o godz. 19 zadebiutuje miniserial dokumentalny Politechniki Wrocławskiej "Nauka do potęgi". Premiera 1. odcinka pt. "Wyzwania współczesnej architektury" będzie miała miejsce na stronie serial.pwr.edu.pl oraz kanale Politechniki Wrocławskiej na YouTube'ie. Kolejne odcinki będą się ukazywać co tydzień do 21 grudnia. Dowiemy się z nich, na przykład, dlaczego wysyłamy w kosmos laboratoria wielkości termosu albo w jaki sposób inżynierowie walczą z nowotworami. Poszczególne odcinki będą dotyczyć wyzwań podejmowanych przez naukowców PWr: od walki z nowotworami piersi, przez projektowanie elektrycznych pojazdów i inteligentnych miast, po eksplorację kosmosu. Dwanaścioro naukowców opowie o swoich doświadczeniach i pracy. Bohaterami serialu są m.in. prof. dr hab. inż. Jan Dziuban, dyrektor naukowy projektu wystrzelenia pod koniec przyszłego roku w kierunku Marsa polskiego nanosatelity wyposażonego w aparaturę z naszego kraju, czy dr inż. Joanna Bauer, której zespół dostał w 2020 r. europejską nagrodę (Grand Prix konkursu Innovation Radar Prize) dla innowatorów za badania nad terapią nowotworów piersi. Kolejne odcinki będą nosić następujące tytuły: "Lepsze życie w mieście", "Inżynierowie komfortu", "Inżynierowie w walce z nowotworami", "Elektromobilność - krok ku przyszłości" oraz "A jeśli Ziemia to za mało?". Serial przygotowało niezależne studio filmowe Camera Nera. Narratorem jest Andrzej Ferenc. Za scenariusz i reżyserię odpowiada Łukasz Śródka, za zdjęcia Aleksy Kubiak, a za koncepcję serialu i opiekę merytoryczną Katarzyna Kroczak-Knapik, dyrektorka Działu Informacji i Promocji PWr. Łukasz Śródka jest współzałożycielem firmy Camera Nera. Prezentował swoje prace na festiwalach w Polsce i za granicą (w Europie, Ameryce Północnej czy Azji). Stworzył liczne krótkie formy filmowe i pełnometrażowy film dokumentalny "W absolutnej ciszy".   « powrót do artykułu
  2. Uczeni z MIT, LIGO oraz University of New Hampshire obliczyli ilość ciężkich pierwiastków jaka powstaje podczas łączenia się czarnych dziur z gwiazdami neutronowymi i porównali swoje dane z ilością ciężkich pierwiastków powstających podczas łączenia się gwiazd neutronowych. Hsin-Yu Chen, Salvatore Vitale i Francois Foucart wykorzystali przy tym zaawansowane systemy do symulacji oraz dane z obserwatoriów fal grawitacyjnych LIGO-Virgo. Obecnie astrofizycy nie do końca rozumieją, w jaki sposób we wszechświecie powstają pierwiastki cięższe niż żelazo. Uważa się, że do ich tworzenia dochodzi w dwojaki sposób. Około połowy takich pierwiastków powstaje w czasie procesu s zachodzącego w gwiazdach o niewielkiej masie (0,5–10 mas Słońca) w końcowym etapie ich życia, gdy gwiazdy te znajdują się w fazie AGB. Są wówczas czerwonymi olbrzymami. Dochodzi tam do nukleosyntezy, kiedy to w warunkach niskiej gęstości neutronów i średnich temperaturach nuklidy wyłapują szybkie neutrony. Z kolei mniej więcej druga połowa ciężkich pierwiastków powstaje w szybkim procesie r, podczas wybuchu supernowych i kilonowych. Dochodzi wówczas do szybkiego wychwyceniu wielu neutronów, a następnie serii rozpadów, które prowadzą do powstania stabilnego pierwiastka. Do pojawienia się tego procesu potrzebne są wysokie temperatury i bardzo gęste strumienie neutronów. Naukowcy spierają się jednak co do tego, gdzie zachodzi proces r. W 2017 roku LIGO-Virgo zarejestrowały połączenie gwiazd neutronowych, które doprowadziło do olbrzymiej eksplozji zwanej kilonową. Potwierdzono wówczas, że w procesie tym powstały ciężkie pierwiastki. Istnieje jednak możliwość, że proces r ma też miejsce zaraz po połączeniu się gwiazdy neutronowej z czarną dziurą. Naukowcy spekulują, że gdy gwiazda neutronowa jest rozrywana przez pole grawitacyjne czarnej dziury, w przestrzeń kosmiczną zostaje wyrzucona olbrzymia ilość materiału bogatego w neutrony. Powstaje wówczas idealne środowisko do pojawienia się procesu r. Specjaliści zastrzegają jednak, że w procesie tym musi brać udział czarna dziura do dość niewielkiej masie, która dość szybko się obraca. Zbyt masywna czarna dziura bardzo szybko wchłonie materiał z gwiazdy neutronowej i niewiele trafi w przestrzeń kosmiczną. Chen, Vitale i Foucart jako pierwsi porównali ilość ciężkich pierwiastków, jakie powstają w wyniku obu typów procesu r. Przetestowali przy tym liczne modele, zgodnie z którymi proces r mógłby zachodzić. Większość symulacji wykazała, że w ciągu ostatnich 2,5 miliarda lat w wyniku łączenia się gwiazd neutronowych przestrzeń kosmiczna została wzbogacona od 2 do 100 razy większą ilością ciężkich pierwiastków niż w wyniku kolizji czarnych dziur z gwiazdami neutronowymi. W modelach, w których czarna dziura obracała się powoli, połączenia gwiazd neutronowych dostarczały 2-krotnie więcej ciężkich pierwiastków, niż połączenia czarnej dziury z gwiazdą neutronową. Z kolei tam, gdzie czarna dziura obraca się powoli i ma niską masę – poniżej 5 mas Słońca – połączenia gwiazd neutronowych odpowiadają aż za 100-krotnie więcej ciężkich pierwiastków powstających w procesie r. Do tego, by połączenia czarnych dziur z gwiazdami neutronowymi odpowiadały za znaczną część pierwiastków powstających w procesie r konieczne jest istnienie czarnej dziury o małej masie i szybkim obrocie. Jednak dane, którymi obecnie dysponujemy, raczej wykluczają istnienia takich czarnych dziur. Autorzy badań już planują poprawienie swoich obliczeń dzięki danym z udoskonalanych LIGO i Virgo oraz z nowego japońskiego wykrywacza KAGRA. Wszystkie trzy urządzenia powinny ponownie ruszyć w przyszłym roku. Dokładniejsze obliczenia tempa wytwarzania ciężkich pierwiastków we wszechświecie przydadzą się m.in. do lepszego określenia wieku odległych galaktyk. Ze szczegółami badań można zapoznać się na łamach Astrophysical Journal Letters. « powrót do artykułu
  3. Spożywanie nasion niektórych roślin np. konopi czy ostropestu – zamiast pozyskanego z nich oleju – jest korzystniejsze w łagodzeniu zaburzeń związanych z otyłością – wynika z badań naukowców z Instytutu Rozrodu Zwierząt i Badań Żywności PAN w Olsztynie. Po raz kolejny potwierdza się, że im bardziej przetworzona jest żywność, tym mniejsze korzyści dla organizmu płyną z jej spożywania. Wielonienasycone kwasy tłuszczowe (WNKT) są uważane za jedne z ważniejszych składników żywności, jeśli chodzi o jej wartość odżywczą i prozdrowotną. Obecność WNKT w codziennej diecie jest jednak zazwyczaj niewystarczająca i często łączy się także ze spożywaniem ich w nieprawidłowej proporcji – przypomniał w rozmowie z PAP dr hab. Adam Jurgoński, prof. Instytutu Rozrodu Zwierząt i Badań Żywności PAN w Olsztynie. Jednymi z głównych źródeł tych kwasów tłuszczowych są oleje. Na skalę przemysłową pozyskuje się je z nasion roślin oleistych, takich jak rzepak czy słonecznik. Ostatnio wzrasta jednak zainteresowanie nasionami innych, mniej popularnych roślin. Ich oleje, bogate w te kwasy, pozyskuje się podczas tłoczenia na zimno. Właśnie nasiona takich roślin – konopi siewnych, maku lekarskiego, ostropestu plamistego, lnu zwyczajnego oraz lnicznika siewnego – przebadał zespół prof. Jurgońskiego. Naukowiec zwrócił uwagę, że nie do końca znany jest wpływ mniej popularnych olejów na zdrowie, a także samych nasion, z których się je wytłacza. Zaś stopień, w jakim frakcja olejowa bogata w WNKT odpowiada za ich korzystne właściwości, jest kwestią zasadniczo nierozstrzygniętą – zauważył. Jak podkreślił, wiedzę tę warto rozszerzać, gdyż nasiona bogate w WNKT zawierają także zazwyczaj znaczne ilości białka i błonnika czy inne związki chemiczne, biologicznie aktywne i specyficzne dla danej rośliny. To wszystko może różnie wpływać na zdrowie człowieka. Zespół prof. Jurgońskiego przeprowadził badania prozdrowotnych właściwości nasion wybranych roślin oleistych. Najważniejszym zadaniem naukowców było ustalenie roli frakcji olejowej nasion w ograniczaniu zaburzeń metabolicznych charakterystycznych dla otyłości i powiązanych z nią chorób dietozależnych, w tym zaburzeń w funkcjonowaniu jelita grubego, stresu oksydacyjnego oraz zaburzeń w gospodarce lipidowej organizmu. Wykazaliśmy stosunkowo wysoką wartość odżywczą białka nasion konopi i maku, zbliżoną do wartości odżywczej białka sojowego. Na zwierzęcych modelach badawczych zaobserwowaliśmy dodatkowo, że regularne spożywanie nasion niektórych roślin (konopi, lnu, ostropestu, lnicznika) może być korzystne dla zdrowia w stopniu zależnym od ich ilości, rodzaju stosowanej diety i/lub uwarunkowań genetycznych – wskazał. Badania przede wszystkim pokazały, że włączenie do diety nasion niektórych roślin – konopi, ostropestu, lnicznika – łagodzi zaburzenia metaboliczne związane z otyłością znacznie skuteczniej, niż włączenie do diety samego oleju z tych nasion – relacjonował badacz. Powiedział też, że WNKT i inne, towarzyszące im związki rozpuszczalne w tłuszczach, są jedynie częściowo odpowiedzialne za prozdrowotne właściwości nasion roślin oleistych. W swoich badaniach naukowcy wykazali również, że suplementacja diety nawet niewielką ilością nasion niektórych roślin (konopi i lnu) może łagodzić zaburzenia metaboliczne charakterystyczne dla otyłości. W przypadku człowieka o masie 75 kg wystarczy dzienna dawka ok. 5,5 łyżki stołowej. Taka suplementacja może usprawniać funkcjonowanie jelita grubego, w tym wzmagać procesy fermentacyjne niezbędne do jego prawidłowego funkcjonowania, oraz poprawiać status przeciwutleniający i metabolizm lipidów w organizmie, w tym profil lipidowy krwi – wskazał naukowiec. Powołując się na nowe wyniki zasugerował, że częściowo odtłuszczone nasiona konopi i lnu można by wykorzystać w zapobieganiu niektórym zaburzeniom metabolicznym związanym z otyłością, szczególnie – zaburzeniom w obrębie przewodu pokarmowego oraz statusu przeciwutleniającego organizmu. Nasze wyniki wskazują również, że nasiona niektórych roślin oleistych, poza dużą zawartością WNKT, charakteryzują się także obecnością innych składników biologicznie aktywnych, które mają decydujący wpływ na prozdrowotny charakter tych nasion, co może doprowadzić w przyszłości do izolacji i/lub identyfikacji nowych związków o charakterze terapeutycznym – ocenił. Nowe wyniki mogą zainteresować konsumentów i producentów żywności, którzy poszukują alternatywnych źródeł WNKT, zarazem będących źródłem wysokowartościowego białka roślinnego i błonnika. Mogą też stanowić podstawę do opracowania nowych suplementów diety, tworzonych na bazie form odtłuszczonych badanych nasion, dostępnych jako produkt uboczny przemysłu olejarskiego – podsumował prof. Jurgoński. Zasugerował potencjalne zastosowania: w profilaktyce i leczeniu zaburzeń związanych z otyłością i powiązanych z nią chorób dietozależnych. « powrót do artykułu
  4. Latem zeszłego roku współpracujący z archeologami detektoryści odkryli w okolicach Rakovníka w kraju środkowoczeskim unikatową biżuterię - złoty pierścień i rozbitą na trzy części sprzączkę. Badania międzynarodowego zespołu, koordynowane przez Muzeum T. G. M. Rakovník, wykazały, że datują się one na 2. połowę V w., a więc na okres wielkiej wędrówki ludów. W biżuterii wykorzystano czeskie granaty oraz almandyny, pochodzące najprawdopodobniej z Indii i Cejlonu. Eksperci wskazują na śródziemnomorskie pochodzenie zabytków. Wg nich, wyprodukowano je w warsztacie w Konstantynopolu lub Rawennie. Bracia Slám natrafili na skarb na głębokości ok. 20 cm. Ponieważ stwierdzili, że to coś wyjątkowego, niezwłocznie skontaktowali się z ekipą z Muzeum w Rakovníku. Unikatowość znaleziska polega na tym, że pierścień zachował się w idealnym stanie - jest jak nowy. Sprzączkę podzielono [zaś] na trzy części - opowiada Kateřina Blažková z Działu Archeologii Muzeum T. G. M. Rakovník. Specjaliści podejrzewają, że po obrabowaniu grobu arystokraty ktoś ukrył tu swoją część łupu (dlatego sprzączka jest podzielona). Artefakty badano w różnych instytutach i laboratoriach, w tym w Luwrze. W pierścieniu znajduje się czeski granat. [...] Ma specyficzne cechy, których nie znajdziemy nigdzie indziej na świecie - opowiada dr Thomas Calligaro z Centre de Recherche et de Restauration des musées de France. Eksperci z Francji podkreślają, że skarb z Rakovníka można precyzyjnie datować na podstawie podobnych odkryć. Do najważniejszych należą obiekty z grobu Childeryka I z Tournai w dzisiejszej Belgii, który zmarł w 481 r. To nam pokazuje, z jakiego okresu pochodzi znalezisko z kraju środkowoczeskiego - wyjaśnia archeolog Michel Kazanski. Badania w różnych ośrodkach zajęły rok. Ponieważ sprzączkę rozbito, można się było zapoznać ze szczegółami jej budowy. Specjaliści analizowali metal i kamienie; w przyszłym roku powinno być znane dokładne miejsce pochodzenia granatów. Ten klejnot z okresu wielkiej wędrówki ludów jest wyjątkowy z dwóch względów: uwagę przyciągają bogate zdobienie i waga. Całość zawiera ponad 150 g złota, a także liczne cięte granaty i almandyny oraz trzy kawałki zielonego szkła - opowiada dyrektorka Muzeum Magdalena Elznicová Mikesková. Warto podkreślić, że nieopodal pierścienia i sprzączki archeolodzy odkryli w tym roku pozłacaną srebrną ozdobę rzędu końskiego z końca VI w. W odróżnieniu od skarbu nie została jednak celowo zakopana; wydaje się, że ktoś ją po prostu zgubił. Przed kilkoma dniami biżuterię i ozdobę zaprezentowano na konferencji prasowej w Urzędzie Kraju Środkowoczeskiego. Latem 2022 r. planowana jest wystawa w Muzeum T. G. M. Rakovník. Szefowa placówki wspomina też o wydaniu publikacji popularnonaukowej. « powrót do artykułu
  5. Najstarsze znane przedstawienie w sztuce strzelania palcami pochodzi ze starożytnej Grecji z roku około 300 przed Chrystusem. Gest ten do dzisiaj nie wyszedł z użycia. Wręcz przeciwnie, trafił do popkultury. A filmie Avengers: Infinity War gest ten wykorzystuje superzłoczyńca Thanos. Zainspirowani filmem naukowcy z Georgia Institute of Technology (GaTech), postanowili zbadać fizykę strzelania palcami oraz rolę, jaką w geście tym odgrywa siła tarcia. Uczeni poinformowali właśnie na łamach Journal of the Royal Society Interface, że gdy użyjemy umiarkowanego nacisku, kiedy to tarcie pomiędzy palcami nie jest ani zbyt duże, ani zbyt małe, to palce osiągają największe przyspieszenie kątowe ze wszystkich części ludzkiego ciała. Jest ono większe nawet niż przyspieszenie kątowe ramienia zawodowego miotacza w baseballu. Badania, przeprowadzone przez studenta Raghava Achraya, doktoranta Elio Challita oraz profesorów Saada Bhalmę i Marka Iltona tylko pozornie wydają się bezużyteczną ciekawostką. W przyszłości ich wyniki mogą zostać wykorzystane podczas produkcji protez dłoni. Przez kilka ostatnich lat fascynowało mnie strzelanie palcami. Okazuje się, że dosłownie w zasięgu dłoni mamy fascynujące zjawisko z dziedziny fizyki, któremu nikt dokładnie się dotychczas nie przyglądał, mówi Bhamla. Naukowcy wykorzystali superszybkie kamery, systemy do automatycznego przetwarzania obrazu oraz czujniki siły dynamicznej za pomocą których badali strzelanie palcami. Badali rolę siły tarcia gdy palce były pokryte różnymi materiałami, w tym metalowymi naparstkami, co symulowało strzelanie palcami przez Thanosa noszącego metalową rękawicę. Maksymalna zmierzona prędkość kątowa dla nagich palców wynosiła 7800 stopni na sekundę, natomiast maksymalne przyspieszenie kątowe to aż 1 600 000 stopni na s2. Prędkość kątowa strzelających palców jest mniejsza niż największa prędkość kątowa zmierzona u człowieka, a jest nią prędkość kątowa zawodowego miotacza w baseballu. Jednak przyspieszenie kątowe palców jest niemal 3-krotnie większe niż przyspieszenie kątowe ramienia miotacza. Gdy po raz pierwszy zobaczyłem nasze dane, omal nie spadłem z krzesła. Strzelanie palcami trwa zaledwie 7 milisekund. To 20-krotnie szybciej niż mruganie powiekami, ekscytuje się Bhamla. Gdy palce są pokryte naparstkami, ich maksymalna prędkość kątowa znacznie spada. Uzyskane przez nas wyniki sugerują, że Thanos nie mógłby strzelać palcami w metalowych rękawicach. Tak więc tutaj mamy do czynienia z efektami specjalnymi Hollywood, a nie z fizyką. Przepraszamy za spoiler, dodaje Achraya. Metalowa rękawica czy też naparstki, zmniejszają powierzchnię kontaktu pomiędzy palcami, czyniąc strzelanie niemożliwym. Na proces strzelania palcami olbrzymi wpływ ma bowiem zdolność skóry do poddania się naciskowi. Jeśli zredukujemy i kompresję, i tarcie, to uzyskanie odpowiednie siły do strzelenia palcami staje się bardzo trudne. Zaskoczeniem może być fakt, że jeśli zmniejszymy tarcie, pokrywając czymś palce, to dochodzi do zmniejszenia prędkości i przyspieszenia. Okazuje się, że zbyt małe tarcie powoduje, iż nie można zgromadzić odpowiedniej ilości energii, by strzelić palcami. Z kolei jeśli tarcie jest zbyt duże, energia ulega rozproszeniu i jest marnowana w formie ciepła, a nie używana w procesie strzelania. John Long, dyrektor programowy w Division of Integratife Organismal Systems Narodowej Fundacji Nauki, która finansuje i nadzoruje badania Bhamli, mówi: to wspaniały przykład tego, czego możemy się nauczyć dzięki mądrym eksperymentom i modelowaniu komputerowemu. Wykazując, że różna siła tarcia pomiędzy palcami wpływa na wydajność strzelania nimi, naukowcy otworzyli drogę do badań nad podstawami działania innych organizmów i do wykorzystania ich wyników w systemach inżynieryjnych, na przykład w robotyce. Być może ludzie strzelają palcami od setek tysięcy lat. Ale dopiero teraz zaczynamy naukowo badać do zjawisko. To jedyny projekt w moim laboratorium, który pozwala na uzyskanie danych naukowych ot tak, na pstryknięcie palcami, żartuje Bhamla.   « powrót do artykułu
  6. Picie kawy lub herbaty może być powiązane z mniejszym ryzykiem udaru i demencji, informują na łamach PLOS Medicine naukowcy z Uniwersytetu Medycznego w Tianjin w Chinach. Ponadto spożycie kawy zostało powiązane z mniejszym ryzykiem demencji po wystąpieniu udaru. Naukowcy wykorzystali w swoich badaniach dane 365 682 zdrowych osób w wieku 50–74 lat z UK Biobank. UK Biobank to długoterminowe badania populacyjne prowadzone w Wielkiej Brytanii od 2006 roku. Ich celem jest badanie predyspozycji genetycznych oraz wpływu czynników środowiskowych na rozwój różnych chorób. Osoby, którym przyjrzeli się Chińczycy, zostały zrekrutowane do UK Biobank w latach 2006–2010, a ich losy śledzono do roku 2020. Badani informowali m.in. o ilości spożywanej przez siebie kawy i herbaty. Okazało się, że spożywanie 2-3 filiżanek kawy lub 3–5 filiżanek herbaty dzienne lub też łącznie 4-6 filiżanek kawy i herbaty było powiązane z największym zmniejszeniem ryzyka udaru i demencji. W takim przypadku ryzyko udaru było mniejsze o 32%, a ryzyko demencji o 28%. Ponadto spożywanie samej kawy lub kawy w połączeniu z herbatą wiązało się ze zmniejszonym ryzykiem wystąpienia demencji po udarze. Autorzy badań przypominają, że podobne wyniki uzyskali japońscy uczeni, którzy wzięli pod uwagę dane 82 369 Japończyków w wieku 45–74 lat i zauważyli, że większe spożycie zielonej herbaty lub kawy było powiązane z mniejszym ryzykiem chorób układu krążenia i udarów, szczególnie zaś udaru krwotocznego. Różnica pomiędzy ich wynikami a naszymi polega głównie na tym, że my w większym stopniu powiązaliśmy konsumpcję herbaty i kawy z mniejszym ryzykiem udaru niedokrwiennego mózgu. Może ona wynikać ze sposobu przeprowadzenia badań, różnic etnicznych czy różnego klasyfikowania spożycia herbaty. Naukowcy nie znają przyczyny, dla której kawa i herbata miałyby chronić przed udarem. Być może ma to związek z jakimś dobroczynnym wpływem na komórki śródbłonka, których dysfunkcja jest główną przyczyną udaru niedokrwiennego. Innym możliwym mechanizmem jest działanie poprzez antyoksydanty. W innych badaniach kawa jest wiązana z mniejszym ryzykiem chorób układu krążenia, cukrzycy typu 2 czy nadciśnienia. Chociaż wszystkie te wyjaśnienia wydają się prawdopodobne, potrzebne są dalsze badania nad wpływem kawy i herbaty na ryzyko wystąpienia udaru niedokrwiennego mózgu, podsumowują Yuan Zhang, Hongxi Yang, Shu Li, Wei-dong Li i Yaogang Wang. « powrót do artykułu
  7. Pozycjonowanie nie jest łatwe, dlatego też nie musisz się na nim znać. W przypadku, gdy chcesz to zlecić specjalistom, powinieneś wiedzieć czym się kierować przy ich wyborze oraz jak ocenić, że dana agencja SEO jest tą najlepszą (dla Ciebie). W takim przypadku najlepiej zapoznać się z konkretnymi działaniami agencji oraz z podstawowymi prawami, którymi rządzi się rynek SEO/SXO. Oferta – diabeł tkwi w szczegółach Kontakt z agencjami SEO może rozpocząć się w dwojaki sposób. Po pierwsze to Ty możesz szukać agencji SEO, której chcesz zlecić zajęcie się Twoją stroną internetową. Po drugie agencja SEO może odezwać się do Ciebie. Oba przypadki nie są niczym złym, jednakże w tym drugim warto mieć się na baczności i dokładniej sprawdzić firmę. Często do małych lub świeżo założonych firm odzywają się nie do końca uczciwe agencje SEO, które będą obiecywać, że w trzy miesiące dzięki nim będziesz na pierwszym miejscu w Google. Jeśli tak jest – podziękuj za troskę i nawet nie wchodź w dalsze negocjacje. Jeśli jednak firma, która odezwała się do Ciebie w tej sprawie, włożyła minimum pracy, by poznać Twoją firmę i już przy pierwszej rozmowie daje to po sobie odczuć, sprawdź, co ma do zaoferowania. Co powinna oferować najlepsza agencja SEO? W ofercie dobrej agencji SEO powinno znajdować się trochę więcej niż tylko „wypozycjonowanie w Google”. Warto zatem sprawdzić, jakie jeszcze zagadnienia oferuje. Powinno się w nich znaleźć między innymi: dobór słów kluczowych, audyt SEO / audyt SXO, konsulting SEO, optymalizacja strony pod kątem technicznym oraz pod kątem UX (przyjazności dla użytkownika). Jeśli agencja oferuje Ci co najmniej to, co wymieniono powyżej, będzie to agencja, która zna się na rzeczy i wie, że samo pojawienie się w Google to nie wszystko. Jednak również każde z tych zagadnień powinno być potraktowane poważnie, a nie po macoszemu. Dobór słów kluczowych Najważniejsze w doborze słów kluczowych jest dopasowanie ich do profilu firmy, ale również specyfiki rynku i liczby wyszukiwań. Dobra agencja wybiera frazy do podstron w taki sposób, aby nie było kanibalizacji oraz by odpowiednie podstrony pojawiały się na szukane przez potencjalnych klientów frazy. Audyt SEO/SXO Jakiekolwiek działania na stronie internetowej mają wpływ na jej pozycję w wyszukiwaniu, a także na ogólną wartość strony dla wyszukiwarek. Zwłaszcza, jeśli było kiedykolwiek robione coś w kierunku pozycjonowania. Dlatego też przed rozpoczęciem prac agencja SEO powinna zaproponować wstępną analizę serwisu, która będzie zawierała aktualną ocenę strony oraz możliwości jej rozwoju. Po podpisaniu umowy następuje już dokładniejsza analiza strony, dzięki której możliwe jest wychwycenie błędów optymalizacyjnych, ustalenie strategii, priorytetyzacja działań. Konsulting SEO oraz opiekun firmy Dobra agencja SEO powinna zaproponować Ci opiekuna SEO, nie pośrednika, który będzie Ci raportował o tym, co robią, ale opiekuna, który nie tylko będzie sam zajmował się koordynacją pozycjonowania Twojej strony, ale także będzie miał czas, by zdzwonić się z Tobą, przedyskutować to, co zostało wykonane i omówić następne kroki. Taka osoba doskonale powinna się znać na SEO, by móc Ci pomóc w rozwoju Twojej firmy, jednocześnie tłumacząc, jak to wszystko działa. Optymalizacja strony www Każda strona umieszczona w internecie powinna być przyjazna zarówno wyszukiwarkom (brak błędów w skrypcie, przyjazność dla algorytmów Google), jak i użytkownikom (proste, czytelne menu, szybki czas wczytywania się, proces zakupowy w trzech krokach, możliwość zakupów bez rejestracji). Dzięki temu uda się przekuć zwiększony ruch na stronie na zysk dla firmy (większą ilość zapytań, zbudowanie bazy potencjalnych klientów, ilość zamówień). Dlatego też dobra agencja SEO powinna zaoferować również takie usługi. Wiesz już, co powinna oferować dobra agencja SEO. Przy wyborze zwracaj również uwagę na dotychczasowe sukcesy agencji i weryfikuj opinie. « powrót do artykułu
  8. W czasie trwającej pandemii, kiedy duża część biznesów stacjonarnych z konieczności przeniosła swoje oferty do sieci, agencje marketingu internetowego mają pełne ręce roboty. Podmiotów do wypromowania i umieszczenia w top 10 wyników Google jest coraz więcej, nic dziwnego więc, że specjaliści opracowują nowe metody i strategie na zdobywanie upragnionych przez klientów pozycji. Poniżej omówimy dwa trendy, które na pewno przyczynią się do osiągnięcia wyższej lokaty w wynikach wyszukiwarki. Zoptymalizuj swoją stronę pod wyszukiwanie głosowe! Ponieważ wyszukiwanie głosowe (voice search) jest trendem, który tylko umacnia się z każdym rokiem, warto przyjrzeć się mu nieco bliżej. Z danych dostarczanych przez wyszukiwarkę wywnioskować można, że niemal połowa wszystkich użytkowników sieci chętnie korzysta z tego udogodnienia. Zwłaszcza nastolatkowie i młodzi ludzie często pozostają w stałej komunikacji z asystentem Google, appleowską Siri lub też Alexą firmy Amazon. Rozsądek zatem podpowiada, że najskuteczniejsze pozycjonowanie stron powinno odpowiadać na skomplikowaną naturę zapytań głosowych, są one bowiem nie tylko dłuższe niż te które zazwyczaj kierujemy do Google, ale i też często pełne mowy potocznej i kolokwializmów. Specjaliści SEO z najlepszych agencji, takich jak AFTERWEB, od dłuższego czasu już na etapie doboru słów kluczowych uwzględniają ten zyskujący na popularności trend. Dzięki temu klienci mogą liczyć na stały napływ internautów na strony, który w prostej linii przekłada się na dochody z prowadzonej sprzedaży. Mobile first, czyli przestaw się na smartfony Nie jest tajemnicą, że Google już wiele lat temu postawiło na dostosowanie internetu do wygodnego przeglądania na urządzeniach przenośnych. Zasadę mobile first jako nowy kierunek możemy zatem śmiało rozpatrywać co roku, szczególnie że wciąż nie każdy serwis, portal i sklep e-commerce dysponują w pełni funkcjonalnym i responsywnym szablonem strony. Tymczasem firma z Moutain View już w marcu 2021 roku przeszła całkowicie na indeksowanie mobilne (wcześniej naturalnie dzieląc się z deweloperami listą metod i zasad odnośnie do nowego porządku). Pamiętajmy więc, że także na polu doświadczenia użytkownika (UX) strona wraz z nawigacją i głównymi funkcjonalnościami musi być dziś łatwa i intuicyjna w obsłudze – najlepiej jednak zaprojektowanie klarownego szablonu zostawić specjalistom, którzy z podobnymi wyzwaniami mierzą się każdego dnia. Znajdziesz ich przede wszystkim w doświadczonych agencjach SEM – nie czekaj i już dziś dostosuj się do wymagań cyfrowego rynku! « powrót do artykułu
  9. W nocy z 18 na 19 listopada niektórzy mieszkańcy Ziemi będą świadkami najdłuższego od 580 lat zaćmienia Księżyca. Całe zjawisko potrwa ponad 6 godzin, a w najgłębszym cieniu Ziemi Srebrny Glob będzie przebywał przez 3 godziny i 28 minut. Nie będzie to jednak całkowite zaćmienie. W momencie jego maksimum zasłonięte zostanie 97,4% tarczy naturalnego satelity naszej planety. W czasie zaćmienia Księżyc będzie znajdował się w apogeum, czyli najdalszym od Ziemi punkcie swojej orbity. Dlatego też będzie wydawało się, że porusza się wyjątkowo powoli. Od momentu pierwszego kontaktu z cieniem Ziemi po wejście w punkt największego zaćmienia minie ponad 100 minut. Tyle samo czasu upłynie od momentu wyjścia Księżyca z największego cienia Ziemi po zakończenie zaćmienia. Rekordowo długie zaćmienie będzie składało się z pięciu faz. W pierwszej z nich Księżyc wejdzie w ziemski półcień, penumbrę. Zjawisko to przez dłuższy czas trudno będzie zaobserwować, gdyż półcień jest bardzo słaby. Następnie Srebrny Glob zacznie wchodzić w umbrę, cień Ziemi. To już wyraźnie zobaczymy. Umbra całkowicie blokuje dostęp promieni słonecznych do Księżyca. I w miarę, jak będzie on tracił na jasności, będziemy mogli zobaczyć coraz więcej gwiazd, które zwykle przyćmiewa blask Księżyca. W momencie największego zaćmienia jasność Księżyca będzie niemal 10 000 razy mniejsza niż przed zaćmieniem. W fazie trzeciej, maksimum zaćmienia, zobaczymy wyraźnie cienką dolną krawędź Srebrnego Globu, która nie będzie przesłonięta cieniem Ziemi oraz czerwonawą resztę Księżyca. Do naszego satelity dotrą bowiem resztki światła słonecznego przefiltrowanego przez atmosferę Ziemi. Później Księżyc zacznie wychodzić z umbry, a następnie z penumbry. Niestety, w Polsce zaćmienie będzie słabo widoczne, zobaczymy jedynie Księżyc w penumbrze. Zjawisko rozpocznie się 19 listopada o godzinie 7:02. Będą mogli zobaczyć je mieszkańcy zachodnich regionów Polski. Im bardziej na północ i zachód, tym większa część kraju go zobaczy i tym dłużej będzie ono trwało. Tak więc będą mogli je obserwować mieszkańcy Opola, ale już nie Katowic, przez 1 minutę będzie widoczne w Łodzi, ale nie w Skierniewicach. Mieszkańcy Płocka będą mogli obserwować je przez 3 minuty, a Elbląga przez 12. Mimo że będzie widoczne w Olsztynie i Mrągowie, to nie zobaczą go mieszkańcy stolicy. « powrót do artykułu
  10. W ramach akcji Movember, która ma zwiększyć świadomość dotyczącą problemów zdrowotnych mężczyzn, przede wszystkim raka prostaty i jądra, studenci Warszawskiego Uniwersytetu Medycznego (WUM) stworzyli niezwykłą wystawę. Od poniedziałku do piątku (od 15 do 19 listopada) w Centrum Dydaktycznym można oglądać skany preparatów histopatologicznych, pochodzących m.in. od pacjentów z rakiem jądra. Wybrane przez nas obrazy mają nie tylko walor edukacyjny, ale również estetyczny. Pozyskaliśmy je z archiwum Zakładu Patomorfologii WUM – mówi organizator wydarzenia Janusz Świeczkowski-Feiz, prezydent Oddziału Warszawa Międzynarodowego Stowarzyszenia Studentów Medycyny IFMSA-Poland. Świeczkowski-Feiz dodaje, że wydarzenie ma uświadomić ludziom, że nowotwory to grupa zmienionych komórek organizmu, a wczesne wykrycie umożliwia skuteczną walkę z chorobą. Na wystawie można porozmawiać z wolontariuszami, którzy odpowiedzą na pytania związane z profilaktyką raka prostaty i jądra. Jako studenci medycyny chcemy zachęcić wszystkich mężczyzn do regularnych badań profilaktycznych. Rak jądra jest najczęściej występującym nowotworem złośliwym w grupie wiekowej od 18 do 40 lat. Natomiast jeśli chodzi o nowotwór prostaty, to z danych dostępnych np. na onkologia.org.pl wynika, że spośród wszystkich mężczyzn, którzy zachorują na nowotwory, aż 20 proc. będą stanowili panowie z rakiem prostaty. Zachorowalność jest zatem wysoka i dlatego tak podkreślamy wagę badań profilaktycznych. Wczesne wykrycie zmian nowotworowych może uratować życie - zaznacza Świeczkowski-Feiz. Nazwa Movember pochodzi od połączenia 2 angielskich słów: moustache (wąsy) i November (listopad). Wąsopad jest coroczną trwającą miesiąc akcją. W listopadzie organizuje się wiele akcji/kampanii edukacyjnych poświęconych męskiemu zdrowiu, a jak podkreślono na stronie WUM, sami panowie zapuszczają wąsy jako symbol męskości, który ma przypominać o profilaktyce raka prostaty i raka jądra. Ze szczegółami akcji Movember Polska można się zapoznać na tej stronie. « powrót do artykułu
  11. Podczas wykopalisk archeologicznych w dawnej stolicy Japonii – Kioto – znaleziono pozostałości Tokaden, wspominanego w literaturze X/XI wieku prywatnego pawilonu cesarzowej i dam dworu. Pochodzący z końca VIII wieku pawilon stanowił część cesarskiego kompleksu pałacowego. Dotychczas przeprowadzone wykopaliska sugerują, że prywatna rezydencja cesarza składała się wówczas m.in. z 17 pawilonów, i rozciągała się na 182 metry w kierunku wschód-zachód i 226 metrów w kierunku północ-południe. Tokaden wymieniany jest w Genji monogatari (Opowieść o Genjim, Opowieść o księciu Promienistym) z ok. 1008 roku. Autorem dzieła, napisanego dla kobiet z japońskiej arystokracji, jest Murasaki Shiibu i jest ono czasem uznawane za pierwszą nowoczesną powieść i pierwszą powieść psychologiczną. O pawilonie Tokaden możemy również przeczytać w Zapiskach spod wezgłowia, dziennikach damy dworu Sei Shōnagon. Zapiski powstały w latach 996–1010. Pawilon cesarzowej został odsłonięty w ramach prac prowadzonych od 2015 roku. Dzięki historycznym dokumentom archeolodzy wiedzieli, że pawilonu Tokaden należy spodziewać się w północno-zachodniej części kompleksu pałacowego, a na południe od niego stał pawilon Kokiden. I rzeczywiście, znaleziono tam pięć okrągłych zagłębień o średnicy 1,2–1,5 metra. Były one ułożone w kierunku północ-południe, a odległości pomiędzy nimi wynosiły od 2,1 do 3 metrów. W zagłębieniach takich ustawiano słupy podpierające budynek. Nie stosowano fundamentów. Dzięki dokumentacji z okresu Edo (1603–1867), w której znalazł się szczegółowy opis położenia pałacowych budynków, archeolodzy upewnili się, że mają do czynienia z południowo-zachodnią częścią pawilonu Tokaden. Wiemy też, że cała budowla rozciągała się na około 12 metrów na linii wschód-zachód i 27 metrów na linii północ-południe. Znaleziono również wiele innych wskazówek, świadczących o tym, że mamy do czynienia z prywatnym pawilonem cesarzowej. W południowo-zachodnim narożniku odkryto kamienną strukturę ułożoną w kształt litery L. Struktury takie służyły do odprowadzania wody opadowej z dachu. Podobną strukturę odkryto w północnej części pawilonu Kokiden. Zaś pomiędzy nimi znaleziono pozostałości chodnika łączącego oba pawilony. Archeolodzy uważają, że systemy odprowadzające wodę pochodzą z X wieku lub okresu późniejszego, kiedy to Tokaden został przebudowany, a wspierające go kolumny ustawiono na fundamentach. Dzięki odkryciu pozostałości Tokaden naukowcy musieli zweryfikować swoje przekonania dotyczące ówczesnej architektury japońskiej. Gdy w roku 794 cesarz Kammu przenosił stolicę do Kioto, zwanego wówczas Heian-kyo, kultura japońska znajdowała się pod bardzo silnym wpływem chińskiej kultury dynastii Tang. Dotychczas sądzono, że wszystkie ważniejsze budynki stawiano z wykorzystaniem kamiennych fundamentów, gdyż tak budowano w Chinach. Okazuje się jednak, że tradycyjna japońska metoda budowania bez fundamentów była wykorzystywana także w Heian-kyo. Stolica Japonii, czyli miejsce, gdzie znajdowała się cesarska rezydencja, wielokrotnie się zmieniała zarówno w czasach legendarnych, jak i historycznych. W końcu w roku 794 cesarz Kammu, 50. władca Japonii, przeniósł swój dwór do Heian-kyo. Tym samym w historii Kraju Kwitnącej Wiśni rozpoczął się okres Heian. To czas stosunkowo silnej władzy cesarskiej, która jednak w coraz większym stopniu była kontrolowana przez potężne klany możnowładców. Okres Heian zakończył się w 1185 roku, kiedy to klan Minamoto, po pokonaniu klanu Taira, przeniósł centrum administracyjne kraju do miasta Kamakura. Zapoczątkowało to kolejny okres w dziejach Japonii, szogunat Kamakura. Niezależnie jednak od tego, gdzie w kolejnych wiekach rezydowali sprawujący rzeczywistą władzę szogunowie, siedzibą cesarza, a przez to miastem uznawanym za stolicę, przez 1000 lat pozostawało Kioto. Zmieniło się to dopiero w roku 1868, kiedy po obaleniu szogunatu Tokugawa (1603–1868) rząd Japonii zdecydował o przeniesieniu dworu cesarskiego do stolicy Tokugawów, Edo, i zmianie nazwy miasta na Tokio. « powrót do artykułu
  12. Obecne czasy są świetne dla nas konsumentów. Nie dość, że mamy pod ręką prawie wszystkie produkty jakich potrzebujemy, to w dodatku podobna kwestia dotyczy ubrań. Na rynku mamy prawdziwe zatrzęsienie ciuchów i w zasadzie niezależnie od naszych gustów, możemy wybrać takie ubrania, jakie nam się rzewnie podobają. W naszym dzisiejszym artykule postanowiliśmy, że weźmiemy pod lupę bluzę męską i skupimy się nad jej zaletami. Dlaczego warto mieć ją w szafie? Aby się dowiedzieć więcej, zachęcamy do przeczytania naszego tekstu. Zapewnienie ciepła w chłodne dni Okres jesienny i zimowy to prawdziwa wylęgarnia chorób. Nie ma co ukrywać, że wtedy stawiamy już nie tylko i wyłącznie na estetykę, ale również na zabezpieczenie naszego ciała. Nikt z nas nie chce być chory, więc warto mieć na sobie bluzę męską, która jednocześnie zapewni naszemu ciału ciepło, ale też sprawi, że będziemy się w niej czuć dobrze. Oczywiście, nie trzeba kupować bluzy tylko i wyłącznie biorąc pod uwagę grubość materiału. Nowoczesne bluzy są bardzo efektowne, dzięki czemu nie tylko chronią przed chłodem m.in. dzięki możliwości założenia kaptura na głowę, ale i również ładnie wyglądają. Nie można zapomnieć, że bluzy męskie również mogą doskonale się sprawdzić w okresie jesiennym, gdy jeszcze nie decydujemy się na założenie kurtki, ale mamy świadomość, że nie można sobie pozwolić na t-shirt. Taka bluza znacząco zapewni ciepło i sprawi, że nie będziemy narażeni w dużym stopniu na zachorowanie. Bluzy męskie można zakupić w wersji bez kaptura oraz z nim. Ostateczny wybór zależy więc tylko i wyłącznie od nas. Jeżeli mamy kaptur w kurtce, to niekoniecznie trzeba decydować się na bluzę wraz z nim, ponieważ możemy czuć się nie komfortowo. Analogiczna sytuacja pojawia się, gdy nie mamy kaptura w kurtce, to może okazać się, że warto mieć bluzę z kapturem, ponieważ będzie dodatkowo chronić naszą głowę przed zimnym powietrzem. Duże możliwości dopasowania do reszty ubrania Jako, że wspomnieliśmy o tym, że producenci tworzą coraz to więcej ubrań, to nie ma co się dziwić, że powstają nowe możliwości dopasowania. Kiedyś bluza męska kojarzyła się z wielkim "workiem", który wisiał na męskim ciele. Obecnie sytuacja wygląda zgoła odmiennie. Bluzy męskie można dopasować niezależnie od pory roku. Sprawdzi się zarówno na letni wieczór jak również nie zawiedzie w okresie jesiennym czy wiosennym. Nowoczesne bluzy męskie świetnie sprawdzą się podczas randek z kobietami. Panie starają się w ostatnim czasie wracać do ubrania sukienek, które notabene można znaleźć na https://answear.com/k/ona/odziez/sukienki, więc warto być mężczyzną, który stara się dopasować do eleganckiego ubioru kobiety. Można je również założyć na co dzień, ponieważ świetnie sprawdzą się do szkoły, pracy czy też na uczelnię. Bywa, że gdy wstajemy, to temperatura na zewnątrz jeszcze nie do końca sprzyja, więc zakładamy bluzę męską. Takie bluzy sprawdzą się idealnie do sportowego obuwia, które nosi większość młodych mężczyzn. Answear charakteryzuje nowoczesny design, który zdecydowanie wyróżnia się na rynku spośród innych marek. « powrót do artykułu
  13. Naukowcy z Westfalskiego Uniwersytetu Wilhelma w Münsterze oraz Narodowej Akademii Nauk Republiki Armenii odkryli w starożytnej stolicy kraju, Atashat (Artaxata), pozostałości rzymskiego akweduktu. Tym samym jest to najdalej na wschód położony akwedukt w świecie rzymskim. Akwedukt powstał po tym, jak miasto zostało zrównane z ziemią przez legiony, a następnie odbudowane przy pomocy Rzymian. Nowa stolica Armenii, Artaxata, została założona przez Artaksesa I, protoplastę dynastii Artaksydów ok. 176 roku p.n.e. Legenda mówi, że władca uczynił to za radą Hannibala, któremu udzielił schronienia po jego ucieczce z Kartaginy. Niedługo później, pod rządami Tigranesa II Armenia stała się najpotężniejszym państwem Azji Mniejszej. Jego stolica słynęła z wielkości i piękna. W 58 roku Artaxatę zdobyły legiony Gnejusza Domicjusza Korbulona i rok później zrównały miasto z ziemią. W roku 66 Neron wysłał do Armenii pieniądze i architektów, by pomóc Tiridatesowi I w odbudowie stolicy. Miasto, na krótko, zyskało wówczas nazwę Neroneia. Monumentalne fundamenty, to dowód na niedokończony akwedukt, który był tutaj wznoszony przez rzymską armię w latach 114–117, wyjaśnia główny autor badań, profesor Achim Lichtenberger. W tym czasie Artaxata była stolicą rzymskiej prowincji Armenia. Na tronie w Rzymie zasiadał wówczas Trajan (98–117), pod którego rządami Imperium Romanum osiągnęło największy zasięg terytorialny. Zaplanowany i częściowo wybudowany akwedukt w Artaxacie pokazuje, jak wiele wysiłku w krótkim czasie włożono w budowę infrastruktury prowincjonalnej stolicy. Akwedukt pozostał nieukończony, gdyż po śmierci Trajana jego następca, Hadrian, zrezygnował z Armenii jako rzymskiej prowincji, dodaje Torben Schreiber. Hadrian powrócił do status quo sprzed wyprawy partyjskiej Trajana uznając, że utrzymanie prowincji na wschód od Eufratu jest zbyt kosztowne. Wojska rzymskie się wycofały, a Armenia szybko wpadła w ręce Partów. Niedokończony akwedukt to jasny dowód na nieudane ustanowienie stałych rzymskich rządów w Armenii. W czasie najnowszych prac, prowadzonych w ramach Projektu Artaxata, naukowcy przeprowadzili badania geomagnetyczne i zmapowali występujące tam anomalie. Na mapach pojawiła się linia złożona z punktów występowania anomalii. Przeprowadzone wykopaliska sondażowe i odwierty ujawniły istnienie zniszczonych lub niedokończonych kolumn akweduktu. Za pomocą zdjęć satelitarnych i obrazowaniu w podczerwieni uwidoczniliśmy przebieg akweduktu, dodaje doktor Mkrtich Zardaryan z Narodowej Akademii Nauk Republiki Armenii. Badania próbek gruntu ujawniły, że konstrukcja pojawiła się pomiędzy rokiem 60 a 460. Specjaliści uznali, że najbardziej prawdopodobne są wspomniane już lata 114–117, kiedy to Armenia była rzymską prowincją. Artaxata przechodziła burzliwe koleje losu. W 163 roku została ponownie zniszczona przez Rzymian i wkrótce potem utraciła status stolicy. W latach 60. IV wieku z ziemią zrównali ją Persowie. Jednak w 387 roku wymieniana jest jako jedno z trzech miejsc, w których dokonywała się wymiana handlowa pomiędzy Rzymem a Persją. Około 450 roku miasto zostało zniszczone przez siły armeńskie sprzyjające perskiemu Imperium Sasanidów. Wtedy też nastąpił szybki upadek miasta, do którego przyczyniła się zmiana biegu rzeki Artaxes i powodzie, przez które miasto zostało opuszczone. Artaxata odegrała olbrzymią rolę w historii Armenii. W IV wieku w tamtejszej cytadeli więziony był św. Grzegorz Oświeciciel, apostoł Armenii, dzięki któremu Armenia stała się pierwszym chrześcijańskim krajem w dziejach. Miasto było ważnym ośrodkiem handlu międzynarodowego, połączonym z ważnymi miastami Persji, Iberii, Kolchidy i Imperium Rzymskiego. Mieszkali w nim Ormianie, Grecy, Żydzi i Syryjczycy. Było, z przerwami, stolicą Armenii przez około 350 lat. « powrót do artykułu
  14. Późnogotycki obraz z Matką Boską z Dzieciątkiem w towarzystwie św. Marcina i św. Urbana, papieża, wrócił po konserwacji do parafii św. Marcina w Pisarzowicach. Dzieło powstało na początku XVI w. w krakowskiej pracowni anonimowego Mistrza Rodziny Marii. Jego konserwacją zajmowali się specjaliści z Krakowa. Konieczne było uzupełnienie złoceń, a także naprawienie warstwy malarskiej lica i podobrazia. Jest to obraz w typie Sacra Conversazione (Święta rozmowa). W sztukach plastycznych to przedstawienie tronującej lub stojącej Marii z Dzieciątkiem w otoczeniu świętych. Zespołem pracującym przy tablicy datowanej na lata 1510-1520 kierował prof. Jarosław Adamowicz, dziekan Wydziału Konserwacji i Restauracji Dzieł Sztuki krakowskiej Akademii Sztuk Pięknych. To on w ostatnim czasie m.in. nadzorował prace przy konserwacji ołtarza Wita Stwosza w kościele Mariackim w Krakowie. Jednocześnie profesor jest najlepszym w Polsce znawcą dzieł, które powstały w warsztacie anonimowego malarza, nazywanego przez historyków sztuki Mistrzem Rodziny Marii [...] - wyjaśnia ks. dr Szymon Tracz, diecezjalny konserwator zabytków i sztuki sakralnej diecezji bielsko-żywieckiej. Obraz namalowano na 5 lipowych deskach. Dzięki zdjęciu rentgenowskiemu wiadomo, które deski są do dnia dzisiejszego pierwotnie sklejone, a które rozłączono i później zbito gwoździami. Na trzech krawędziach zachowało się oryginalne fazowanie. Od czwartej krawędzi (dolnej) odcięto natomiast ok. 3 cm. Na odwrocie widać ślady narzędzi (topora, piły i struga). Pomocnicy mistrza obrobili nimi deski. Ponieważ nie wykorzystano drewna zbyt dobrej jakości, podobrazie się wygięło. Z tego względu w czasie konserwacji zastosowano stabilizujące rozwiązanie przypominające rybią ość. Oprócz tego uzupełniono kanały wyżłobione przez drewnojady. Dawna środkowa część tryptyku została gruntownie przemalowana przed 1748 rokiem, a później na przełomie XIX i XX wieku, kiedy domalowano dwójkę świętych karmelitańskich adorujących Madonnę. Obraz został uratowany z płonącego drewnianego kościoła w Pisarzowicach pod koniec lat 60. XX wieku. W latach 1969-1971 konserwatorki Krystyna Sokół-Gujda i Janina Strużyńska ściągnęły późniejsze przemalowania, odsłaniając pierwotną formę późnogotyckiego dzieła. Niestety, zdejmując przemalowania, utracono żywość barw i detale. Najbardziej ucierpiała twarz św. Marcina. Zrekonstruowano ją na podstawie podobnych fizjonomii malowanych przez Mistrza Rodziny Marii. Najlepiej zachowały się postaci Marii i Dzieciątka. W obrazie uzupełniono także złocenia reliefowego tła utworzonego ze stylizowanych splotów liści akantu, nimby świętych postaci oraz papieską tiarę i ferulę u św. Urbana - opowiada ks. dr Tracz. W tablicy zachwyca pięknie malowana twarz Madonny, pełna liryzmu i uduchowienia, oraz postać Dzieciątka. Niezwykle precyzyjnie namalowano złociste kosmyki włosów u obu postaci oraz brwi, które układają się w charakterystyczną jodełkę. Ciekawie przedstawia się także elegancki strój św. Marcina w modnym późnośredniowiecznym berecie oraz pełne dostojeństwa pontyfikalne szaty św. Urbana - dodaje historyk sztuki. « powrót do artykułu
  15. Na liście pozycji nominowanych do tegorocznej Diagram Prize - nagrody dla najdziwniej zatytułowanych książek - po raz pierwszy w 43-letniej historii konkursu znalazły się wyłącznie tytuły, które ukazały się nakładem wydawnictw uniwersyteckich/specjalizujących się w treściach naukowych. Do 26 listopada można głosować on-line. Tytuł zwycięskiej publikacji zostanie podany 3 grudnia. Dla zwycięskiego autora czy wydawcy nie przewidziano nagrody. Osobie nominującej przyznawana jest przechodnia butelka czerwonego wina (jeśli nominującym jest pracownik organizatora, czyli pisma The Bookseller, wino trafi do jednego z uczestników głosowania). Tegoroczni nominowani Wśród nominowanych w tym roku tytułów znalazła się książka Roya Schwartza pt. "Czy Superman jest obrzezany?" (Is Superman Circumcised?), która traktuje o wpływach kultury żydowskiej na superbohatera. Oprócz tego na liście znajdziemy publikację pt. "Cykl życiowy rosyjskich obiektów: od rybich wnętrzności po Fabergé" (The Life Cycle of Russian Things: From Fish Guts to Fabergé) pod redakcją Matthew P. Romaniello, Alison K. Smith i Tricii Starks, dot. 400-letniej historii rosyjskiej kultury materialnej. Kolejna z nominowanych książek to "Kapelusze - bardzo nienaturalna historia" (Hats: A Very Unnatural History), której autor Malcolm Smith analizuje modę z XVIII i XIX w. na ozdabianie kapeluszy sierścią ssaków, piórami, a nawet całymi ptakami. Internauci mogą też głosować na "Podręcznik badań nad korzyściami zdrowotnymi i środowiskowymi produktów wielbłądzich" (Handbook of Research on Health and Environmental Benefits of Camel Products) pod redakcją Omara Amina Alhaja, Bernarda Faye'a i Rajendry Prasada Agrawala. "Panienko, gówno mnie to obchodzi: zajmowanie się trudnymi zachowaniami w szkole" (Miss, I Don’t Give a Shit: Engaging with Challenging Behaviour in Schools) jest poradnikiem Adele Bates, jak być inspirującym nauczycielem (nawet dla aniołków sprawiających kłopoty). Szóstą pozycją jest książka Juliana Havila "Krzywe dla fanów matematyki" (Curves for the Mathematically Curious). Książka daje wgląd w elegancki i zadziwiający świat matematyki, związany z tworzeniem i ewolucją matematycznych krzywych. To niezapomniane matematyczne doświadczenie dla wszystkich zainteresowanych krągłościami. Bez środowiska akademickiego tej nagrody by nie było Horace Bent, administrator Diagram Prize, zastanawia się, czy nagroda na najdziwniejszy tytuł mogłaby w ogóle istnieć, gdyby nie święte gaje środowiska akademickiego. Już pierwszy zwycięzca konkursu z 1978 r. - "Sprawozdanie z drugich międzynarodowych warsztatów na nagich myszach" (Proceedings of the Second International Workshop on Nude Mice) University of Tokyo Press - miał bowiem "korzenie" akademickie. Należy też zwrócić uwagę, że książki wydawnictwa Bloomsbury Academic 2. rok z rzędu znalazły się na liście tytułów do głosowania - w 2020 r. pozycja "Antyk w muzyce heavymetalowej" (Classical Antiquity in Heavy Metal Music) zajęła 3. miejsce, w tym roku można zaś wesprzeć "Cykl życiowy rosyjskich obiektów". Tom Tivnan dodaje, że zeszłoroczna nagrodzona pozycja "Pies sikający na skraju ścieżki: zwierzęce metafory w społeczeństwie wschodniej Indonezji" (A Dog Pissing at the Edge of a Path: Animal Metaphors in an Eastern Indonesian Society) Gregory'ego Fortha ukazała się nakładem McGill-Queen's University Press. Nagroda Bookseller/Diagram Prize for Oddest Title of the Year (początkowo Diagram Group Prize for the Oddest Title) została po raz pierwszy przyznana 43 lata temu. Zorganizowano ją, by urozmaicić Targi Książki we Frankfurcie nad Menem. « powrót do artykułu
  16. Naukowcy informują o zidentyfikowaniu najstarszego miejsca, w którym człowiek zanieczyścił rtęcią siebie i środowisko naturalne. Zespół specjalistów przebadał kości 370 osób z 50 grobów znalezionych na 23 stanowiskach archeologicznych na południu Hiszpanii i Portugalii. Szczątki pochodzą z okresu 5000 lat, począwszy od neolitu. Efektem pracy jest opublikowany na łamach Journal of Osteoarcheology artykuł The use and abuse of cinnabar in Late Neolithic and Copper Age Iberia. Rtęć to niezwykle niebezpieczny pierwiastek. Światowa Organizacja Zdrowia wymienia go wśród 10 największych zagrożeń dla współczesnego zdrowia publicznego. Uczeni z z Hiszpanii, Portugalii Brazylii i USA informują, że najwyższy poziom ekspozycji ludzi na działanie rtęci miał miejsce w epoce miedzi, 2900–2600 lat przed naszą erą. Wówczas to bardzo rozpowszechniło się użycie cynobru, naturalnie występującego minerału zawierającego siarczek rtęci. Był on wykorzystywany w roli barwnika, któremu przypisywano znacznie symboliczne i religijne. Największa na świecie kopalnia cynobru, wpisana na Listę Światowego Dziedzictwa UNESCO, znajduje się w Almadén w Hiszpanii. Prace wydobywcze rozpoczęto tam już w neolicie, przed 7000 lat. Do początku epoki miedzi, przed 5000 lat, cynober stał się bardzo pożądanym cennym materiałem. W Portugalii i Andaluzji spotykamy groby ozdobione tym barwnikiem. Był używany zarówno do dekorowania samych ścian, jak i malowania figurek czy przedmiotów składanych ze zmarłymi. Miał znaczenie symboliczne, ezoteryczne. Tak powszechne używanie cynobru musiało oznaczać, że sporo osób było narażonych na kontakt z niebezpiecznym poziomem rtęci. Sproszkowany cynober można było przypadkiem wchłonąć przez drogi oddechowe czy przenieść do ust wraz z pożywieniem. I rzeczywiście, badania kości niektórych zmarłych wykazały, że doszło w nich do koncentracji rtęci rzędu 400 ppm (części na milion). O tym, jak olbrzymia to wartość niech świadczy fakt, że WHO uznaje, iż bezpieczny poziom rtęci we włosach nie powinien przekraczać 2 ppm. Rtęć musiała powodować u wielu z tych osób poważne skutki zdrowotne, a poziom 400 ppm w organizmie jest tak duży, że nie można wykluczyć celowego spożywania lub wdychania sproszkowanego cynobru. Praktyki takie mogły mieć związek z symbolicznym i rytualnym znaczeniem, jaki nadawano barwnikowi. Autorzy badań wykluczają bowiem, by naturalna ekspozycja na rtęć w środowisku – na przykład na rtęć zawartą w żywności – mogła skutkować tak wielką jej koncentracją w organizmie. Pod koniec epoki miedzi i na początku epoki brązu użycie cynobru na badanym obszarze znacznie się zmniejsza, do tego stopnia, że znika on z wielu miejsc, w których wcześniej był rozpowszechniony. Barwnik jednak był popularny przez kolejne tysiące lat. Znajdziemy go w sztuce starożytnego Rzymu, manuskryptach średniowiecza czy renesansowym malarstwie. Do tego jednak czasu cynober produkowano w procesie chemicznym, gdyż znano niebezpieczeństwa związane z jego wydobyciem. Nadal był on toksyczny, gdyż do produkcji używana była rtęć. « powrót do artykułu
  17. Języki transeurazjatyckie to termin wprowadzony na oznaczenie sąsiadujących języków tradycyjnie klasyfikowanych jako ałtajskie. Do transeurazjatyckich mają należeć tureckie, mongolskie, tungusko-mandżurskie oraz japoński i koreański. Pojęcie języków transeurazjatyckich budzi spory wśród specjalistów. Wiele podobieństw pomiędzy tymi językami wynika z kontaktów między nimi. Powstaje jednak pytanie, czy przynajmniej część z podobieństw to nie wynik posiadania wspólnego przodka. A jeśli tak, to gdzie i kiedy języki te zaczęły się od siebie oddzielać. Zespół naukowców z Niemiec, USA, Korei, Chin, Rosji, Japonii, Wielkiej Brytanii i Holandii przeprowadził badania genetyczne, archeologiczne i lingwistyczne, na podstawie których wykazał, że wspólnego przodka i początków różnicowania się języków transeurazjatyckich należy szukać wśród pierwszych rolników przemierzających we wczesnym neolicie północno-wschodnią Azję. Zdaniem badaczy, twórcą tych języków jest pochodząca znad Amuru ludność, która zasiedliła obszary w pobliżu Zachodniej Rzeki Liao (Xiliao He). Proces ich rozprzestrzeniania się odbył się w dwóch głównych etapach. W pierwszej fazie uprawiający proso rolnicy reprezentujący amurską pulę genetyczną zaczęli rozprzestrzeniać się znad basenu rzeki Xiliao He. Po tym początkowym podziale, który miał miejsce we wczesnym i środkowym neolicie, doszło do dalszego różnicowania się w późnym neolicie i epoce brązu. Ludność, która niosła ze sobą zaczątki języków mongolskich rozprzestrzeniła się w kierunku północnym. Droga języków proto-tureckich wiodła na zachód przez step. Twórcy języków proto-tungusko-mandżurskich powędrowali w region rzek Amur, Ussuri i jeziora Chanka. Część ludności przeszła zaś na Półwysep Koreański i Wyspy Japońskie, dając początek językowi koreańskiemu i japońskiemu. Dzięki połączeniu kilku dyscyplin naukowych badacze byli w stanie odtworzyć drzewo filogenetyczne dla niemal 100 języków transeurazjatyckich. Stwierdzili, że źródła rodziny proto-transeurazjatyckiej sięgają 9181 lat i leżą w okolicach Xiliao He. Niewielka grupa wspólnych dla tych języków pojęć związanych z uprawą ziemi, uprawą prosa i innych słów odnoszących się do osiadłego trybu życia wspiera hipotezę o ich rolniczym pochodzeniu. W językach pochodzących od wspólnego przodka – proto-transeurazjatyckich, proto-ałtajskich, proto-monogolsko-tunguskich i proto-japońsko-koreańskich –  udało się zidentyfikować grupę wyrazów powiązanych z uprawą ziemi (pole, roślina, uprawiać, rosnąć, siać, kopać), z prosem ale już nie z innymi zbożami (ziarno prosa, kasza z prosa), produkcją żywności (fermentacja, mielenie, warzenie), roślinami dzikimi (orzech, kasztan jadalny), produkcją tkanin oraz psami i świniami jako jedynymi udomowionymi zwierzętami. Jednak już w rodzinach językowych z epoki brązu – tureckiej, mongolskiej, tungusko-mandżurskiej, koreańskiej i japońskiej – widzimy nowe terminy, odnoszące się do ryżu, pszenicy, jęczmienia, produktów mlecznych, innych udomowionych zwierząt jak bydło, owce czy konie. Pojawiają się nowe pojęcia z zakresu uprawy ziemi i  wyposażenia domostwa czy nowe materiały, jak jedwab. Słowa te to wynik interakcji ludności niosącej języki transeurazjatyckie zarówno między sobą jak i z innymi grupami językowymi. Jak czytamy na łamach Nature pojawienie się przed 9000 lat uprawy prosa w regionie Xiliao He należy wiązać z ludnością pochodzącą nad Amuru. Wydarzenie to nakłada się czasowo i przestrzennie na istnienie społeczności posługującej się przodkiem języków transeurazjatyckich. Nasze badania są zgodne z tym, co od niedawna wiemy o liczących 8000 lat pokrewieństwie grupy sino-tybetańskiej i neolitycznych rolników znad górnego i środkowego biegu Rzeki Żółtej. Nasze badania wykazały istnienie związku pomiędzy istnieniem dwóch centrów udomowienia prosa w północno-wschodniej Azji z dwiema dużymi rodzinami językowymi: sino-tybetańską znad Rzeki Żółtej i transeurazjatycką znad Zachodniej Rzeki Liao. Brak dowodów na językowy i genetyczny wpływ ludności znad Rzeki Żółtej na ludność będącą przodkiem języków transeurazjatyckich zgadza się z opartą na dowodach archeobotanicznych hipotezą o niezależnych centrach udomowienia prosa. W okresie pomiędzy 9 a 7 tysiącami lat temu, wraz z udomowieniem prosa, doszło do zwiększenia liczebności populacji, co pociągnęło za sobą pojawienie się różnych pod względem terytorialnym i społecznym grup w regionie Xiliao He i zerwanie związku pomiędzy protoplastami języków ałtajskich i japońsko-koreańskich. Około 6500 lat temu część z tych rolników zaczęła migrować na południowy-wschód i północny-wschód, na tereny dzisiejszych Korei, Japonii, Kraju Nadmorskiego i region Amuru-Rzeki Żółtej. W późnej epoce brązu doszło do intensywnej wymiany kulturowej przez step, co doprowadziło do wymieszania puli genetycznej ludności regionu Xiliao He z ludnością zachodniej Eurazji. Odbiciem tego procesu są występujące w językach proto-mongolskich i proto-tureckich słowa odnoszące się do uprawy jęczmienia, pszenicy, produktów mlecznych czy użytkowania koni. Z kolei przed około 3300 laty na teren Półwyspu Koreańskiego migrowali rolnicy z regionu Liaodong-Szantung, którzy przynieśli tam uprawy ryżu, jęczmienia i pszenicy. Później zaś doszło do migracji na Wyspy Japońskie, a migracja ta doprowadziła do zmiany kulturowej i genetycznej z Jomon na Yayoi i rozwoju języka japońskiego. « powrót do artykułu
  18. "Rozśpiewana swoim szumem. Mapa dźwiękowa Wisły na Mazowszu" to projekt płockiej Fundacji Nobiscum. Znajdzie się na niej niespełna 160 min nagrań wykonanych w 40 lokalizacjach (ukazują one soundscape zarówno naturalny, jak i industrialny). Mapa będzie mieć formę 2-płytowego wydawnictwa CD. Ukaże się ono w grudniu br. w nakładzie 700 sztuk i dzięki dofinansowaniu mazowieckiego samorządu będzie dostępne nieodpłatnie w wybranych miejscach na Mazowszu. Nagrania dźwiękowe wykonał Piotr Dąbrowski. Autorką dokumentacji fotograficznej i wideo jest Gabriela Nowak-Dąbrowska. W wywiadzie dla PAP-u Dąbrowski powiedział, że nagrania powstawały w czasie kolejnych wypraw szlakiem wzdłuż Wisły. Trwały one, z przerwami, 3 miesiące. Pierwsze nagrania powstały w miejscowości Borek. Ostatnie w miejscowości Nowy Duninów. Po drodze, na obu brzegach Wisły, odwiedzaliśmy wsie, miasta, a także miejsca, gdzie nieczęsto staje stopa człowieka. Wszędzie, także w wielkomiejskim otoczeniu, jak choćby w Warszawie, utrwalałem dźwięki charakterystyczne dla danej lokalizacji i chwili - podkreślił prezes zarządu Fundacji. Mapa dźwiękowa Wisły na Mazowszu dokumentuje to, jak sama Wisła i miejsca nad rzeką brzmią dziś. Jest to dokumentacja subiektywna i taki jest wyłaniający się z niej obraz. Może stanowić punkt wyjścia dla własnych wycieczek dźwiękowymi tropami Wisły, a ta forma specyficznej "turystyki", wymagająca skupienia, drastycznego ograniczenia swojego wpływu na otaczające nas środowisko, niejako stojąca w kontrze do wszechobecnej kultury selfie, może dać wiele satysfakcji, nawet jeśli nie używamy mikrofonu i nie dokonujemy żadnego zapisu - napisano o projekcie na witrynie Fundacji Nobiscum. Dąbrowski dodaje, że nad Wisłą nie ma już prawie miejsc, gdzie do strefy dźwiękowej nie przenikałaby obecność człowieka (Dziś Wisła rzeczywiście śpiewa szumem, nie tylko tym generowanym przez płynącą wodę. Nie sposób uciec bowiem od dźwięków ruchu kołowego i lotniczego). Na jednym z nagrań słychać, na przykład, przelatujące myśliwce. Dawny soundscape Wisły pozostaje kwestią wyobraźni. Po Wiśle A.D. 2021 pozostanie [zaś] zapis będący treścią tego projektu. Kiedy i jak zostanie wykorzystany? Możliwości, jak zawsze w przypadku nagrań terenowych, jest wiele.   « powrót do artykułu
  19. Naukowcy z Instytutu Geodezji i Geoinformatyki Uniwersytetu Przyrodniczego we Wrocławiu są kluczowymi członkami międzynarodowego konsorcjum, któremu Europejska Agencja Kosmiczna (ESA) przyznała finansowanie na stworzenie koncepcji systemu nawigacji dla misji księżycowych. System taki znakomicie ułatwi zarówno badania samego Księżyca, jak i realizację planów zakładających wykorzystanie Srebrnego Globu jako etapu w załogowej misji na Marsa. Na Ziemi dysponujemy kilkoma satelitarnymi systemami nawigacji, w tym najpopularniejszym GPS-em. Jednak podobne systemy nie istnieją dla Księżyca. Dlatego też misja GRAIL, badająca pole grawitacyjne Srebrnego Globu, mogła świetnie zmapować jego jedną stronę, tę widoczną z Ziemi. Gdy jednak GRAIL znalazł się po przeciwnej stronie Księżyca, tracił kontakt z satelitami nawigacyjnymi, przez co jego możliwości dokładnego określania pozycji znacznie się zmniejszały. W ostatnich latach zarówno państwowe agencje kosmiczne, jak i firmy prywatne, coraz częściej wspominają o eksploracji satelity Ziemi. NASA chce za kilka lat wysłać pierwszą od wielu dekad załogową misję na Księżyc, planuje budowę stacji na orbicie Srebrnego Globu oraz prowadzenie prac na jego powierzchni. Zarówno pracujący tam ludzi, jak i autonomiczne urządzenia, będą potrzebowali skutecznego systemu do określania własnej pozycji. ESA prowadzi program Moonlight, w ramach którego badane są możliwości zapewnienia precyzyjnej nawigacji i komunikacji na całej powierzchni Księżyca. Program jest wieloetapowy, zakłada stopniowe osiągnięcie zamierzonego celu. Najpierw konieczne będzie zapewnienie możliwości pozycjonowania na orbicie transferowej Ziemia-Księżyc, następnie dla satelitów na orbicie wokół Księżyca w końcu dla podejścia do lądowania oraz operacji na powierzchni Srebrnego globu. Projekt zakłada, że w latach 2022–2025 wykorzystywane będą istniejące już konstelacje satelitów nawigacyjnych oraz odbiorniki księżycowe. W fazie II, przewidzianej na lata 2025–2035 na orbitę księżycową ma trafić kilka satelitów, a z powierzchni Księżyca mają być transmitowane dodatkowe sygnały. W końcu fazie III, czyli po roku 2035, ma funkcjonować pełny księżycowy system nawigacyjny. Polscy naukowcy, prof. Krzysztof Sośnica, dr Radosław Zajdel i dr Grzegorz Bury, biorą udział w pracach projektu ATLAS, który otrzymał właśnie od ESA finansowanie w ramach fazy II. Zadaniem ATLAS-a będzie zbadanie różnych rozwiązań technicznych dla księżycowego systemu nawigacyjnego, sprawdzenie możliwości jedno- i dwukierunkowej komunikacji pomiędzy Ziemią a satelitami oraz księżycowymi przekaźnikami i satelitami. Maj powstać też procedury transformacji pomiędzy księżycowymi, ziemskimi i niebieskimi (inercjalnymi) układami odniesienia. Członkowie projektu ATLAS będą musieli też przeprowadzić test jakości pozycjonowania zarówno na Księżycu jak i na jego orbicie.   « powrót do artykułu
  20. Specjalistki z Międzyuczelnianego Wydziału Biotechnologii Uniwersytetu Gdańskiego i Gdańskiego Uniwersytetu Medycznego - prof. Krystyna Bieńkowska-Szewczyk, dr Katarzyna Grzyb i mgr Anna Czarnota - pracują nad szczepionką przeciw zakażeniom spowodowanym wirusami zapalenia wątroby typu C i B (HCV i HBV). Urząd wydał już decyzję o przyznaniu patentu na ich wynalazek ("Chimeryczne cząsteczki wirusopodobne eksponujące sekwencje antygenowe wirusa HCV do zastosowania w leczeniu prewencyjnym zakażenia wirusem HCV i/lub HBV"). Szczepionka na wagę złota HCV stanowi poważny problem medyczny. Wg Głównego Inspektoratu Sanitarnego (GIS), szacuje się, że co roku 1,4 mln zgonów jest spowodowanych odległymi następstwami przewlekłych zakażeń wirusami wywołującymi wirusowe zapalenie wątroby B lub C (marskość, rak wątrobowokomórkowy). WZW C [wirusowe zapalenie wątroby typu C] jest główną przyczyną raka wątroby w Europie i USA. W tych regionach świata WZW C jest najczęstszym powodem dokonywania przeszczepów wątroby. Niestety, mimo badań nie ma jeszcze skutecznej szczepionki. Główną przeszkodą jest duża zmienność genetyczna HCV. Z tego powodu idealna szczepionka powinna wzbudzać odpowiedź immunologiczną przeciw najbardziej konserwowanym fragmentom białek wirusowych. Gdański wynalazek Wynalazek dotyczy rekombinowanych cząstek wirusopodobnych eksponujących na swojej powierzchni wybrane sekwencje antygenowe pochodzące z wirusa zapalenia wątroby typu C do zastosowania jako immunogenna szczepionka przeciwko zakażeniom spowodowanym wirusami zapalenia wątroby typu C i/lub B – wyjaśnia prof. Bieńkowska-Szewczyk. Wynalazek powstał w ramach realizacji projektu NCN Preludium 12. Jego szczegóły opisano w pracy eksperymentalnej pt. "Specific antibodies induced by immunization with hepatitis B virus-like particles carrying hepatitis C virus envelope glycoprotein 2 epitopes show differential neutralization efficiency". Dr Grzyb tłumaczy, że cząstki wirusopodobne cieszą się obecnie dużym zainteresowaniem, gdyż są bardzo podobne do wirusów, stąd też wynika ich wysoka immunogenność. Nie są jednak wirusami, bo nie zawierają materiału genetycznego wirusa, a tym samym nie mają zdolności do namnażania. Zdolność tworzenia cząstek wirusopodobnych ma małe białko powierzchniowe wirusa zapalenia wątroby typu B (ang. hepatitis B virus small surface protein, sHBsAg). sHBsAg jest wykorzystywane w szczepionkach chroniących przed zakażeniem wirusem zapalenia wątroby typu B. Jak wyjaśniono w opisie projektu na stronie Narodowego Centrum Nauki, ze względu na obecność w strukturze białka sHBsAg silnie immunogennej, hydrofilowej pętli dobrze tolerującej insercje nawet dużych fragmentów obcych białek, sHBsAg było wielokrotnie proponowane jako nośnik obcych antygenów. W naszym wynalazku wyeksponowanie silnie konserwowanych fragmentów białek wirusa HCV na powierzchni cząstek wirusopodobnych opartych na białku sHBsAg [w hydrofilową pętlę  białka sHBsAg wstawiono silnie konserwowane sekwencje glikoproteiny E2 wirusa HCV] pozwoliło na stworzenie biwalentnych immunogenów wzbudzających odpowiedź zarówno przeciwko wirusowi HCV, jak i HBV. W przyszłości nasze rozwiązanie mogłoby być wykorzystane jako skuteczna szczepionka nowej generacji chroniąca przed zakażeniem tymi groźnymi patogenami - podsumowuje mgr Anna Czarnota. « powrót do artykułu
  21. IBM zaprezentował 127-kubitowy procesor kwantowy Eagle. Dzięki niemu, jak zapewnia koncern, klienci firmy będą mogli wykorzystać niedostępne dotychczas zasoby obliczeniowe, co ma się stać krokiem milowym w kierunku wykorzystania obliczeń kwantowych w codziennej praktyce. Eagle ma bowiem wkrótce zostać udostępniony wybranym partnerom IBM-a. Postrzegamy Eagle'a jako krok na drodze technologicznej rewolucji w historii maszyn obliczeniowych. W miarę, jak procesory kwantowe są rozbudowywane, każdy dodatkowy kubit dwukrotnie zwiększa ilość pamięci, jaką potrzebują komputery klasyczne, by symulować taki procesor. Spodziewamy się, że komputery kwantowe przyniosą realne korzyści, gdyż rosnąca złożoność procesów obliczeniowych, jakie są w stanie wykonać, przekroczy możliwości komputerów klasycznych, czytamy w informacji prasowej IBM-a. Inżynierowie Błękitnego Giganta nie mieli łatwego zadania. Prace praktyczne i teoretyczne nad maszynami kwantowymi, opartymi na zasadach mechaniki kwantowej, są prowadzone od dziesięcioleci i od dawna wiemy, że komputery takie są w stanie przeprowadzać obliczenia niedostępne maszynom klasycznym. Jednak ich zbudowanie jest niezwykle trudne. Nawet najmniejszy wpływ czynników zewnętrznych może spowodować dekoherencję kubitów, czyli doprowadzić do stanu, w którym zawarta w nich informacja zostanie utracona. Eagle zawiera niemal 2-krotnie więcej kubitów niż jego poprzednik, 65-kubitowy Hummingbird. Jednak jego powstanie wymagało czegoś więcej, niż tylko dodania kubitów. Inżynierowe IBM-a musieli opracować nowe i udoskonalić istniejące techniki, które – jak zapewniają – staną się podstawą do stworzenia ponad 1000-kubitowego układu Condor. Kolejnym niezwykle ważnym elementem nowego procesora jest wykorzystanie techniki multiplekosowania odczytu, znaną już z procesora Hummingbird R2. We wcześniejszych układach kwantowych każdy kubit wymagał zastosowania osobnego zestawu elektroniki zajmującej się odczytem i przesyłaniem danych. Taka architektura może sprawdzić się przy kilkudziesięciu kubitach, jednak jest zbyt nieporęczna i niepraktyczna przy ponad 100 kubitach, nie wspominając już o 1121-kubitowym Condorze, który ma powstać za 2 lata. Multipleksowanie odczytu polega na łączeniu sygnałów odczytowych z wielu kubitów w jeden, dzięki czemu można znakomicie zmniejszyć ilość okablowania i komponentów elektronicznych, co z kolei pozwala na lepsze skalowanie całości. Najbardziej interesującymi informacjami, których jeszcze nie znamy, są wyniki testów Quantum Volume (QV) i Circuit Layer Operations Per Second (CLOPS). Quantum Volume to stworzony przez IBM-a system pomiaru wydajności kwantowego komputera jako całości. Bierze pod uwagę nie tylko same kubity, ale również interakcje pomiędzy nimi, działania poszczególnych elementów komputera, w tym błędy obliczeniowe, błędy pomiarowe czy wydajność kompilatora. Im większa wartość QV, tym bardziej złożone problemy może rozwiązać komputer kwantowy. Z kolei zaproponowany niedawno przez IBM-a CLOPS to benchmark określający, na ilu obwodach kwantowych procesor jest w stanie wykonać operacje w ciągu sekundy. Maszyna Eagle nie została jeszcze poddana testom wydajnościowym i jakościowym. W ubiegłym roku Honeywell ogłosił, że jego System Model H1, korzystający z zaledwie 10 kubitów, osiągnął w teście QV wartość 128. Nieco wcześniej zaś 27-kubitowy system IBM-a mógł się pochwalić QV 64. Widzimy zatem, że sama liczba kubitów nie mówi jeszcze niczego o wydajności samej maszyny. « powrót do artykułu
  22. Autorzy interdyscyplinarnych badań dowodzą istnienia związku pomiędzy aktywnością wulkanów a upadkami chińskich dynastii na przestrzeni ostatnich 2000 lat. Erupcje wulkaniczne, które są dominującym w skali globalnej zewnętrznym czynnikiem prowadzącym do krótkoterminowych zmian klimatycznych, miały wpływ na dzieje Państwa Środka, stwierdzają naukowcy z Chin, USA, Szwajcarii, Niemiec i Irlandii. Uczeni wykorzystali zarówno rekonstrukcję aktywności wulkanicznej, jak i informacje o historii społecznej oraz politycznej Chin i stwierdzili, że w czasach dużych napięć społeczno-politycznych do upadku dynastii mogła przyczynić się już niewielka erupcja wulkaniczna, podczas gdy w przypadku braku takich napięć kres chińskiej dynastii mogła położyć duża erupcja. Wykazali również, że walki po upadku dynastii zwykle szybko wygasały, gdyż sam upadek był elementem koncepcji „boskiego mandatu”, na podstawie którego nowa dynastia mogła przejąć władzę, co ułatwiało szybsze przywrócenie porządku społecznego. Jako pierwsi dowiedliśmy, że upadki chińskich dynastii na przestrzeni ostatnich 2000 lat historii były bardziej prawdopodobne w latach następujących po erupcjach wulkanów. Jednak związek przyczynowo-skutkowy nie jest tak oczywisty, gdyż jeśli mieliśmy do czynienia z wojnami i konfliktami, to dynastie były bardziej podatne na upadek, wyjaśnia profesor Alan Robock z Rutgers University. Erupcje wulkaniczne, w zależności od ich siły, w krótkim terminie zmieniają klimat, powodując jego ochłodzenie. To zaś ma wpływ na produkcję rolną. Wpływ ochłodzenia klimatu również zwiększał prawdopodobieństwo pojawienia się konfliktów, co dodatkowo narażało dynastię na upadek, dodaje Robock. Chińskie dynastie posiadały boski mandat na rządzenie. Taki stan rzeczy był akceptowany i przez lud, i przez elity. Napięcia społeczne, konflikty, gorsze zbiory spowodowane chociażby ochłodzeniem się klimatu po erupcji wulkanicznej, mogły być postrzegane jako odebranie mandatu rządzącym. A wyłaniająca się z konfliktu kolejna dynastia mogła uspokoić nastroje społeczne, powołując się na przekazanie boskiego mandatu właśnie w jej ręce. Koncepcja boskiego mandatu została najsilniej wyartykułowana w czasie rządów dynastii Zhou (1046–256 p.n.e.). Co prawda jej znacznie i interpretacja zmieniały się w casie, ale utrzymała się ona przez tysiąclecia. Zgodnie z nią, rządzący, którzy nadużywali władzy lub zawiedli lud, narażali się na cofnięcie ich mandatu do rządzenia. To do pewnego stopnia mogło promować niestabilność, gdyż rywale do tronu, ludowi powstańcy, zbuntowani generałowie, gubernatorzy czy dynastie z sąsiednich państw mogli twierdzić, że ono im został przekazany mandat. Jednak twierdzenia takie nabierały szczególnej wagi, gdy zostały wsparte naturalnymi katastrofami – jak chłodniejsze lata po erupcji wulkanicznej, spadek plonów i związany z tym głód – będącymi jasnym dowodem na odwołanie mandatu dotychczas rządzących. Erupcje wulkaniczne mogły wiązać się nie tylko z gorszą pogodą, ale również z innymi znakami, jak spowodowane zapyleniem atmosfery zmiany kolorów czy jasności Słońca i Księżyca oraz pojawieniem się innych niespotykanych zjawisk atmosferycznych. Naukowcy na podstawie badań poziomu związków siarki w rdzeniach lodowych z Grenlandii i Antarktydy zrekonstruowali 156 eksplozywnych erupcji wulkanicznych, do jakich doszło w latach 1–1915. Przeanalizowali też dokumenty na temat 68 dynastii rządzących Chinami oraz zbadali konflikty, jakie w latach 850–1911 targały Państwem Środka. Za pomocą metod statystycznych dowiedli, że wybuchy wulkanów wpływały na historię Chin. Oczywiście na upadek dynastii składa się olbrzymia liczba czynników, dlatego też związki pomiędzy wulkanami a zmianą dynastii nie są oczywiste i łatwe do wychwycenia. Autorzy badań podkreślają, że np. ani wielka erupcja wulkanu Tambora z 1815 roku, ani wybuch Huaynaputina (1600 r.) czy Samalas (1257) nie wpłynęły na zmianę dynastii, a przynajmniej nie w statycznie prawdopodobnym okresie. Nawet olbrzymia erupcja, do której doszło w 626 roku na obszarach tropikalnych półkuli północnej, a która mogła być jedną z przyczyn upadku tureckiego kaganatu wschodniego, nie miała oczywistego wpływu na politykę dynastyczną Chin. Jednak, jak dowodzą autorzy badań, podczas prac nad historią Państwa Środka należy brać pod uwagę wybuchy wulkanów i ich wpływ na politykę wewnętrzną. Więcej na ten temat można przeczytać na łamach Nature Communications Earth & Environment, w artykule Volcanic climate impacts can act as ultimate and proximate causes of Chinese dynastic collapse. « powrót do artykułu
  23. Poszukiwanie zjawisk fizycznych wykraczających poza Model Standardowy często wymaga dostępu do potężnych narzędzi, jak Wielki Zderzacz Hadronów, podziemnych wykrywaczy neutrin, ciemnej materii i egzotycznych cząstek. Urządzenia takie są niezwykle kosztowne w budowie i utrzymaniu, ich konstruowanie trwa przez wiele lat i jest ich niewiele, przez co ustawiają się do nich długie kolejki naukowców. Teraz dzięki naukowcom z Holandii może się to zmienić. Opracowali oni bowiem technikę więzienia i badania ciężkich molekuł w warunkach laboratoryjnych. Ciężkie molekuły są świetnym obiektem do badań nad elektrycznym momentem dipolowym elektronu. Jednak dotychczas stosowane metody nie pozwalały na ich uwięzienie w warunkach niewielkiego laboratorium. Standardowe techniki poszukiwania elektrycznego momentu dipolowego elektronu (eEDM) wykorzystują wysoce precyzyjną spektroskopię. Jednak by ją zastosować konieczne jest najpierw spowolnienie molekuł i schwytanie ich w pułapkę laserową lub elektryczną. Problem w tym, że do odkrycia zjawisk wykraczających poza Model Standardowy konieczne może okazać się przechwycenie molekuł zbyt ciężkich, by mogły uwięzić je lasery. Z kolei pułapki elektryczne pozwalają na przechwycenie ciężkich jonów, ale nie obojętnych elektrycznie molekuł. Naukowcy z Uniwersytetu w Groningen, Vrije Universiteit Amsterdam oraz instytutu Nikhef rozpoczęli swoją pracę od stworzenie molekuł fluorku strontu (SrF), które powstały w wyniku reakcji chemicznych zachodzących w kriogenicznym gazie w temperaturze około 20 kelwinów. Dzięki niskiej temperaturze molekuły te mają początkową prędkość 190 m/s, podczas gdy w temperaturze pokojowej wynosi ona ok. 500 m/s. Następnie molekuły wprowadzane są do 4,5-metrowej długości spowalniacza Stark, gdzie zmienne pola elektryczne najpierw je spowalniają, a następnie zatrzymują. Molekuły SrF pozostają uwięzione przez 50 milisekund. W tym czasie można je analizować za pomocą specjalnego systemu indukowanego laserem. Pomiary takie pozwalają badać właściwości elektronów, w tym elektryczny moment dipolowy, dzięki czemu możliwe jest poszukiwanie oznak asymetrii. Model Standardowy przewiduje istnienie eEDM, jednak ma on niezwykle małą wartość. Dlatego też dotychczas właściwości tej nie zaobserwowano. Obserwacja i zbadanie eEDM mogłyby wskazać na istnienie fizyki wykraczającej poza Model Standardowy. Molekuły SrF, którymi zajmowali się Holendrzy, mają masę około 3-krotnie większą niż inne molekuły badane dotychczas podobnymi metodami. Naszym kolejnym celem jest uwięzienie jeszcze cięższych molekuł, jak np. fluorku baru (BaF), który ma macę 1,5 raza większą od SrF. Taka molekuła byłaby jeszcze lepszym celem do pomiarów eEDM, mówi Steven Hoekstra, fizyk z Uniwersytetu w Groningen. Im bowiem cięższa molekuła, tym dokładniejszych pomiarów można dokonać. Jednak możliwość uwięzienia ciężkich molekuł przyda się nie tylko do badania elektrycznego momentu dipolowego elektronu. Można dzięki temu przeprowadzać też zderzenia ciężkich molekuł przy niskich energiach, symulując warunki w przestrzeni kosmicznej. To zaś przyda się podczas badań interakcji na poziomie kwantowym. Hoekstra mówi, że wraz ze swoimi kolegami będą też pracowali nad zwiększeniem czułości pomiarów poprzez zwiększenie intensywności strumienia molekuł. Spróbujemy też uwięzić bardziej złożone molekuły, jak BaOH czy BaOCH3. Dodatkowo wykorzystamy naszą technikę do badania asymetrii w molekułach chiralnych, zapowiada. « powrót do artykułu
  24. Już w najbliższa sobotę, 20 listopada, startuje 2. międzynarodowa edycja konferencji Neuromania. Zdalnie zgromadzonych uczestników zabierze ona w świat lingwistyki poznawczej. A w trakcie jej przekonamy się, że język to bezcenny zasób, bez którego nasze poznanie i kultura nie byłyby takie same. Zagłębimy się w szczegóły relacji pomiędzy językiem a poznaniem, dowiemy się więcej o poznaniu społecznym oraz o komunikacji jako manifestacji poznania. Konferencja Neuromania organizowana jest przez Toruńskie Koło Kognitywistyczne, którego członkami są studenci Wydziału Filozofii i Nauk Społecznych Uniwersytetu Mikołaja Kopernika w Toruniu. To cykliczna impreza, która odbywa się od 2013 roku. Początkowo miała zasięg krajowy, jednak szybko zdobyła sobie popularność i od 2019 roku jest konferencją międzynarodową. W roku ubiegłym, z powodu pandemii, konferencja się nie odbyła. W bieżącym roku powraca w formie online i po raz 2. jest organizowana jako wydarzenie międzynarodowe. Tegoroczna Neuromania będzie gościła takie znakomitości jak profesorowie Irene Pepperberg z Uniwersytetu Harvarda, Don Lee Fred Nilsen z Arizona State University, Daniel L. Everett z Bentley University, Marianna Bolognesi z Uniwersytetu w Bolonii, Valentina Cuccion z Uniwersytetu w Mesynie oraz Michael Anthony Arbib z Uniwersytetu Kalifonrijskiego w San Diego. A będziemy mogli wysłuchać m.in. wykładu o zdolnościach poznawczych i komunikacyjnych żako, dowiemy się jakie są biologiczne podstawy języka figuratywnego, a Don Nilsen opowie o znaczeniu humoru w psychologii. Oprócz kilku wykładów przewidziano również sesje studenckie. Organizatorzy konferencji zachęcają do odwiedzenia witryny www.neuromania.pl oraz fanpage'a konferencji na Facebooku: https://www.facebook.com/neuromania.conference.   « powrót do artykułu
  25. Specjaliści z Narodowego Instytutu Onkologii w Gliwicach wykorzystują radiochirurgię jako nieinwazyjną metodę leczenia funkcjonalnego, m.in. u chorych z arytmią czy neuralgią nerwu trójdzielnego. Od pewnego czasu [jako jedyni w Polsce i pierwsi w Europie] biorą udział w badaniu klinicznym, którego celem jest zmniejszenie lub eliminacja bólu przy wykorzystaniu radioablacji splotu trzewnego u chorych na zaawansowanego raka trzustki. Radioterapia (in. radiochirurgia) stereotaktyczna polega na podaniu jednej lub kilku (zwykle 1-5) dużych dawek promieniowania na obszar guza z zaoszczędzeniem otaczających go zdrowych tkanek. W Polsce sprzęt do zabiegów radiochirurgii stereotaktycznej posiada wiele ośrodków, a NIO Gliwice jest jednym z najbardziej uznanych. Jak podkreślono w komunikacie prasowym, wykorzystuje do tego celu nowoczesny sprzęt, jakim są przyspieszacze liniowe EDGE, CyberKnife [nóż cybernetyczny, czyli zrobotyzowany system pozwalający na dużą precyzję] oraz TrueBeam. Dopiero od niedawna jednak ta bardzo precyzyjna technika podania wiązki promieniowania jonizującego jest stosowana w Gliwicach w leczeniu przeciwbólowym. Trzy lata temu podczas pilotażowego badania przeprowadzonego przez izraelskie Sheba Medical Center dr Yaacov Richard Lawrence zaobserwował, że u pacjentów cierpiących na silny ból po zastosowaniu wysokodawkowych terapii stereotaktycznych pierwotnego guza trzustki dochodziło do całkowitego lub częściowego ustąpienia tych dolegliwości. Na konferencji ASTRO (American Society for Radiation Oncology) dr n. med. Marcin Miszczyk z NIO w Gliwicach poznał jednego z uczestników wspomnianego badania. Dzięki nawiązanej w ten sposób współpracy nasz ośrodek, jako pierwszy w Europie i jedyny w Polsce, bierze udział w II fazie [...] międzynarodowego, wieloośrodkowego eksperymentu leczniczego "Radiochirurgiczna ablacja splotu trzewnego jako leczenie przeciwbólowe u pacjentów z zaawansowaną chorobą nowotworową" (ang. Celiac Plexus Radio-Surgery for Pain Management/Celiac-Plexus Radioablation). Aktualnie uczestniczą w nim m.in. placówki z Izraela, Stanów Zjednoczonych, Kanady i Portugalii - wyjaśnia dr Miszczyk. Pierwszy zabieg radioablacji splotu trzewnego wykonano w tutejszym Zakładzie Radioterapii we wrześniu 2020 r. Dr Miszczyk przeprowadził go pod nadzorem prof. dr. hab. n. med. Jerzego Wydmańskiego u 61-letniego pacjenta. Od tego czasu zabieg wykonano u kolejnych kilkunastu chorych. Za kwalifikację i przygotowanie do zabiegu odpowiadał kilkuosobowy zespół. Ból występuje na różnych stadiach wielu chorób onkologicznych. U chorych z rakiem trzustki ból odczuwany jest w nadbrzuszu i/lub w dolnej części pleców. Ma związek z uciskiem lub naciekaniem nowotworu na zlokalizowany za trzustką - na wysokości 1. kręgu lędźwiowego - splot trzewny (potocznie jest on nazywany splotem słonecznym). Rak trzustki, podobnie jak inne nowotwory zaawansowane zlokalizowane w jamie brzusznej, może wywoływać ból trzewny, somatyczny i neuropatyczny, wynikający z bezpośredniego uszkodzenia splotu trzewnego, poprzez wnikanie komórek nowotworowych pomiędzy struktury splotu, uszkadzanie komórek nerwowych i tworzenie lokalnego stanu zapalnego. Radioablacja splotu trzewnego pokrywa aż dwa z tych rodzajów bólu – ból trzewny i neuropatyczny – tłumaczy dr Miszczyk. Dotychczas tego typu ból można było zmniejszać za pomocą małoinwazyjnych zabiegów, jak blokada czy neuroliza. Jednak ich dostępność w Polsce jest ograniczona, a część pacjentów nie kwalifikuje się do takich zabiegów z powodu wielkości guza. Dlatego też pojawiła się potrzeba opracowania alternatywnej metody. Uzyskane do tej pory wyniki są bardzo obiecujące. U 1/3 pacjentów uzyskano całkowite zniesienie bólu i mogli oni odstawić większość lub wszystkie środki przeciwbólowe, a u kolejnej 1/3 udało się uzyskać zmniejszenie bólu o co najmniej 2 punkty na 10-punktowej skali natężenia bólu. To zaś oznacza, że korzyści z nowej metody odnosi nawet 70 procent pacjentów. Jeżeli skuteczność radioablacji splotu trzewnego w terapii przeciwbólowej rzeczywiście się potwierdzi, może być ona w przyszłości traktowana również jako leczenie standardowe. Oczywiście nie chodzi o to, by wyparła aktualnie dostępne metody, lecz aby stała się kolejną możliwością terapeutyczną. Z technicznego punku widzenia jest to zupełnie inna metoda niż zabiegowa neuroliza czy blokada splotu trzewnego, mówi doktor Miszczyk. « powrót do artykułu
×
×
  • Dodaj nową pozycję...