Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36960
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. Dwunastoletni Lu Jiezhen z miasta Nanning w Chinach wynalazł suszarkę na ubrania, która automatycznie składa się, gdy wykryje deszcz i rozkłada się, gdy opady się kończą. Chłopiec jest uczniem 6. klasy w North-East Women's Education Center. Wynalazek powstał, bo pewnego razu Lu zdenerwował matkę. Kobieta musiała wyjść, a że wcześniej powiesiła na dworze pranie, poprosiła syna, by monitorował pogodę i gdyby zaczęło padać, schował je do środka. Dwunastolatek zajął się, oczywiście, zabawą i gdy matka wróciła do domu, ubrania ociekały wodą. Skarcony Lu nie puścił jednak uwag mimo uszu i postanowił poszukać rozwiązania, które sprawi, że w przyszłości jego zapominalstwo nie będzie miało takich konsekwencji. Przez kilka miesięcy Lu pracował z ojcem i kilkoma nauczycielami. Wreszcie na początku maja na 34. Dziecięcym Konkursie Wynalazków Naukowych i Technologicznych Regionu Autonomicznego Kuangsi zespół zaprezentował gotowy prototyp suszarki. Sędziowie byli pod takim wrażeniem, że przyznali 12-latkowi pierwszą nagrodę. Wbudowane czujniki wykrywają krople deszczu i wycofują wieszaki pod brezentowy daszek. Światłoczułe sensory odpowiadają z kolei za detekcję bezchmurnego nieba. Dzięki temu, gdy deszcz ustaje i wychodzi słońce, brezent się chowa, a wieszaki się rozciągają. Co ważne, urządzenie jest w stanie zmierzyć wilgotność ubrań. Jeśli są suche, są chowane pod daszek. Na razie nie ma mowy o komercjalizacji wynalazku, ale ponieważ w Chinach i na świecie nie brakuje zapominalskich, bardzo możliwe, że już wkrótce do 12-latka zgłosi się jakaś firma...   « powrót do artykułu
  2. Służba Pocztowa Stanów Zjednoczonych (USPS) rozpoczęła testy autonomicznych samochodów dostawczych. Wczoraj na jej zlecenie nowo powstała firma TuSimple z SanDiego wysłała pierwszy ładunek listów i paczek. W ramach rozpoczętego właśnie programu pilotażowego autonomiczne ciężarówki firmy Peterbilt będą odbędą pięć kursów w tę i z powrotem pomiędzy Phoenix a Dallas. Oba miasta dzieli 1700 kilometrów. Testy potrwają dwa tygodnie, a po tym czasie USPS oceni, czy nadal będzie współpracowało z TuSimple. Przed dwoma laty Inspektor Generalny USPS oznajmił, że przedsiębiorstwo będzie stopniowo adaptowało autonomiczne pojazdy. Na początku bieżącego roku poproszono o zgłaszanie pomysłów na wykorzystywanie takich samochodów. Pierwsze z nich już wyruszyły w trasę. Testy rozpoczęto właśnie od przewozów długodystansowych. O ile bowiem niewielkie samochody poruszające się samodzielnie po ulicach miast i rozwożące pocztę między urzędami czy innymi punktami odbioru to kwestia odległej przyszłości, to przewozy długodystansowe, gdzie pojazdy poruszają się po dobrze oznakowanych autostradach mogą stać się codziennością już w ciągu najbliższych lat. Każdego roku USPS wydaje ponad 4 miliardy dolarów na usługi długodystansowego przewozu przesyłek. Koszy ciągle rosną ze względu na zmniejszającą się liczbę kierowców ciężarówek. Autonomiczne pojazdy pozwoliłyby na zaoszczędzenie setek milionów dolarów rocznie. Nie trzeba by płacić kierowcom, poza tym same ciężarówki byłyby lepiej wykorzystywane, gdyż automatów nie obejmują ograniczenia dotyczące pracy kierowców, mogą jeździć przez 24 godziny na dobę. Obecnie jednak podczas testów autonomicznych ciężarówek w pojazdach TuSimple siedzi kierowca, który może w każdej chwili przejąć kontrolę nad pojazdem, oraz inżynier, monitorujący pracę systemów. Gdy już ciężarówki będą całkowicie autonomiczne, staną się znacznie bardziej efektywne. Szacujemy, że autonomiczny samochód ciężarowy przejedzie od wybrzeża do wybrzeża w ciągu dwóch dni. Obecnie podróż taka trwa pięć dni, mówi Chuck Price z TuSimple TuSimple powstała w 2015 roku. Przedsiębiorstwo zyskało 178 milionów dolarów od inwestorów. Od ubiegłego roku świadczy ono usługi klientom z Arizony. Obecnie firma jest wyceniana na miliard USD. « powrót do artykułu
  3. Naukowcy z Uniwersytetu Kolorado w Boulder odkryli, w jaki sposób zbyt krótki sen szkodzi zdrowiu sercowo-naczyniowemu. Okazuje się, że sen krótszy niż 7 godzin obniża poziom 3 miRNA we krwi (miRNA to jednoniciowa cząsteczka RNA, która reguluje ekspresję genów). Wcześniej wykazano, że hamują one białka zapalne. Nasze badanie wskazuje na nowy mechanizm, za pośrednictwem którego sen wpływa na stan serca i ogólną fizjologię - podkreśla prof. Christopher DeSouza. W jednym z wcześniejszych badań DeSouza ustalił, że mężczyźni, którzy śpią 6 godzin, mają dysfunkcyjne komórki śródbłonka i ich naczynia nie kurczą się i nie rozkurczają tak dobrze, jak naczynia osób przesypiających wystarczającą liczbę godzin. Czynniki leżące u podłoża tej dysfunkcji nie są jednak dobrze poznane. Amerykanie zaznaczają, że dokładna rola krążących miRNA i ich wpływ na układ sercowo-naczyniowy cieszą się ostatnio dużym zainteresowaniem badaczy. Rozwijane są leki na różne choroby, w tym na nowotwory, które mają korygować niewłaściwe sygnatury miRNA. One są jak hamulce komórkowe, dlatego jeśli brakuje właściwych miRNA, może to mieć ogromny wpływ na zdrowie komórki. W ramach pierwszego badania dot. wpływu niedoboru snu na sygnatury krążącego miRNA zespół DeSouzy pobrał próbki krwi od 24 zdrowych kobiet i mężczyzn w wieku 44-62 lat. Wypełniali oni kwestionariusze opisujące ich zwyczaje senne, dlatego wiadomo było, że połowa przesypia 7-8,5 godziny, a druga połowa 5-6,8 godziny. Naukowcy mierzyli poziom 9 miRNA, które wcześniej powiązano ze stanem zapalnym, funkcjonowaniem immunologicznym czy zdrowiem naczyniowym. Okazało się, że osoby z niedoborem snu miały o 40-60% niższy poziom 3 krążących miRNA: miR-125A, miR-126 i miR-146a (wcześniej wykazano, że hamują one białka zapalne). Nie jest jasne, czemu 7 lub 8 wydają się "cyframi magicznymi". Jest jednak możliwe, że ludzie potrzebują 7 godzin snu, by podtrzymać poziom ważnych regulatorów fizjologicznych, takich jak miRNA. Obecnie trwają badania, które mają pokazać, czy wprowadzenie zdrowych nawyków sennych może odtworzyć zdrowe stężenia miRNA. DeSouza dodaje, że niewykluczone, że w przyszłości krążące miRNA będą markerami chorób sercowo-naczyniowych u osób z niewystarczającą ilością snu. « powrót do artykułu
  4. Nie można wykluczyć, że starożytni Egipcjanie jedli arbuzy, które bardzo przypominały owoce znane nam dzisiaj. Wskazują na to rysunki na ścianach oraz niedawno przeprowadzone badania DNA. Dzikie arbuzy, które można spotkać w Afryce, w niczym nie przypominają odmian udomowionych. Są małe, okrągłe, a wewnątrz znajduje się biały miąższ pełen gorzkiej kukurbitacyny. Naukowcy do dzisiaj sprzeczają się, gdzie owoce te zostały udomowione. Jedni wskazują na południową, inni zaś na zachodnią Afrykę. Na ścianach co najmniej trzech starożytnych egipskich grobowców widzimy rysunki owoców przypominających arbuzy. Jeden z nich niemal do złudzenia przypomina odmianę współczesną. Ponadto w XIX wieku liście arbuza znaleziono na mumii sprzed 3500 lat. Niedawno botanik Susanne Renner z Uniwersytetu w Monachium dowiedziała się o istnieniu tych liści i zdała sobie sprawę, że zbadanie ich DNA może nam wiele powiedzieć o arbuzach, które jedli Egipcjanie. A dzięki zamiłowaniu do dawnej literatury odkryła, że część z liści wysłano w słynnego botanika Josepha Hookera, który był w tym czasie dyrektorem Królewskich Ogrodów Botanicznych w Kew. Na prośbę Renner pracownicy Ogrodów udostępnili jej niewielką próbkę liści wyjętą z gabloty wystawowej, która nie była otwierana od 1876 roku. Kolega Renner, Guillaume Chomicki z Uniwersytetu w Oksfordzie, przeprowadził badania DNA próbki. Uczeni byli w stanie tylko częściowo odtworzyć genom starożytnego arbuza, ale w odczytanym fragmencie zauważyli dwa geny, które sporo powiedziały o owocu. Jeden z nich kontroluje produkcję kukurbitacyny. W próbce sprzed 3500 lat gen ten był zmutowany, co doprowadziło do jego wyłączenia, a to oznacza, że egipski arbuz miał słodki miąższ, podobnie jak współczesne odmiany udomowione. Wyłączony był też gen odpowiedzialny za zamianę likopenu, czerwonego barwnika występujące m.in. w pomidorach, w inną substancję. Możemy zatem przyjąć, że likopen akumulował się w miąższu i arbuz był wewnątrz czerwony. Na podstawie zsekwencjonowanego fragmentu nie można było stwierdzić, jaki kształt miał arbuz. Czy był okrągły czy podłużny. Jednak na jednym ze starożytnych malunków naściennych widzimy podłużny owoc. Niewykluczone zatem, że przed 3500 lat w Egipcie jedzono wydłużone arbuzy o słodkim czerwonym miąższu. Owoce posiadały więc wszystkie najważniejsze cechy dzisiejszych udomowionych arbuzów. DNA wskazuje też, że badany owoc był blisko spokrewniony ze słodkim arbuzem o białym miąższu uprawianym w regionie Darfuru. Owoce mogły więc zostać po raz pierwszy udomowione na wschodzie Afryki, później ich uprawa rozprzestrzeniała się wzdłuż Nilu i z czasem owoc zyskiwał takie cechy jak np. czerwony miąższ. « powrót do artykułu
  5. Międzynarodowy zespół naukowy opracował metodę przechowywania danych, która niemal nie zużywa energii. Cyfrowe dane są zapisane na nośniku magnetycznym, który nie potrzebuje zasilania. Cała metoda jest niezwykle szybka i rozwiązuje problem zwiększenia wydajności przetwarzania danych bez zwiększania poboru energii. Obecnie centra bazodanowe odpowiadają za 2–5 procent światowego zużycia energii. W czasie ich pracy generowane są olbrzymie ilości ciepła, które wymagają dużych ilości energii przeznaczonej na chłodzenie. Problem jest na tyle poważny, że np. Microsoft zatopił centra bazodanowe w oceanie, by je lepiej chłodzić i obniżyć koszty. Większość danych przechowywanych jest w formie cyfrowej, gdzie 0 i 1 są reprezentowane za orientacji domen magnetycznych. Nad materiałem magnetycznym przesuwa się głowica odczytująco/zapisująca. Teraz na łamach Nature dowiadujemy się o nowej metodzie zapisu, która wykorzystuje niezwykle krótkie, trwające bilionowe części sekundy, impulsy światła, które wysyłane są do anten umieszczonych na magnesach. Całość pracuje niezwykle szybko i niemal nie zużywa przy tym energii, gdyż temperatura magnesów nie rośnie. Autorzy nowej metody wykorzystali impulsy światła w zakresie dalekiej podczerwieni, w paśmie teraherców. Jednak nawet najpotężniejsze terahercowe źródła światła nie są na tyle mocne, by zmienić orientację pola magnetycznego. Przełom nadszedł, gdy uczeni opracowali wydajny mechanizm sprzęgania pomiędzy spinem pola magnetycznego i terahercowym polem elektrycznym. Następnie stworzyli miniaturowe anteny, które pozwalają skoncentrować, a zatem i wzmocnić pole elektryczne światła. Okazało się ono na tyle silne, że można za jego pomocą zmieniać spin w ciągu bilionowych części sekundy. Temperatura magnesu nie rośnie podczas pracy, gdyż cały proces zapisu wymaga jednego kwanta energii na spin. Rekordowo niski pobór energii czyni tę metodę skalowalną. Przyszłe systemy do składowania danych będą mogły wykorzystać również świetne zdefiniowanie przestrzenne anten, co pozwoli na stworzenie praktycznych układów pamięci magnetycznej o maksymalnej prędkości i efektywności energetycznej, mówi jeden z autorów badań, doktor Rościsław Michajłowskij z Lancaster University. Uczony planuje przeprowadzenie kolejnych badań, podczas których chce wykorzystać nowy ultraszybki laser z Lancaster University oraz akceleratory z Cockroft Institute zdolne do generowania intensywnych impulsów światła. Chce w ten sposób określić praktyczne i fundamentalne limity prędkości i energii dla zapisu magnetycznego. « powrót do artykułu
  6. Warzywa z rodziny kapustowatych zawierają molekułę, która hamuje rozwój nowotworów. O przeciwnowotworowych właściwościach brokuła, kalafiora, brukselki czy kapusty mówi się nie od dzisiaj. Również i my o tym informowaliśmy. W najnowszym numerze Science opublikowano zaś artykuł, z którego dowiadujemy się, że użycie pewnego składnika kapustowatych przeciwko genowi WWP1 hamuje rozwój nowotworów u zwierząt laboratoryjnych, które zostały genetycznie zmodyfikowane tak, by były podatne na nowotwory. Odkryliśmy nowy ważny czynnik, który wpływa na szlak krytyczny dla rozwoju nowotworu, enzym, który może być powstrzymany za pomocą naturalnego związku znajdującego się w brokułach i innych warzywach kapustnych. Szlak te jest nie tylko regulatorem wzrostu guza, ale również jego piętą achillesową, którą możemy wykorzystać podczas leczenia, mówi doktor Pier Paolo Pandolfi, dyrektor Centrum Nowotworów i Instytutu Badań nad Nowotworami w Beth Israel Deaconess Medical Center. W swoich organizmach posiadamy dobrze znany i silny gen supresorowy PTEN, którego zadaniem jest zapobiegania rozwojowi nowotworów. Jednocześnie jest to najczęściej zmutowany, kasowany i wyciszany gen w procesie rozwoju nowotworów. Niektóre dziedziczne mutacje tego genu pozwalają na określenie podatności danej osoby na zachorowanie na nowotwory. Jednak, jako że całkowita utrata genu PTEN prowadzi do pojawienia się potężnego i odpornego na uszkodzenia mechanizmu zapobiegającego rozprzestrzenianiu się komórek nowotworowych, nowotwory rzadko doprowadzają do usunięcia obu kopii PTEN. Radzą sobie w ten sposób, że guzy nowotworowe obniżają ekspresję PTEN. To zaś kazało się naukowcom zastanowić, czy przywrócenie aktywności PTEN do normalnego poziomu w obliczu już istniejącego nowotworu, doprowadzi do uruchomienia mechanizmu supresji guza. Pandolfi i jego zespół postanowili zidentyfikować molekuły, które regulują i aktywizują PTEN. Przeprowadzili serię eksperymentów na genetycznie zmodyfikowanych myszach oraz na ludzkich komórkach i odkryli, że gen WWP1, o którym wiadomo, że odgrywa rolę w rozwoju nowotworów, wytwarza enzym, który hamuje aktywność PTEN. Uczeni przeanalizowali kształt tej molekuły i stwierdzili, że niewielka molekuła I3C (indolo-3-karbinol), która występuje w brokułach i innych kapustnych, może być czynnikiem hamującym pronowotworowe działanie WWP1. Uczeni rozpoczęli więc eksperymenty na myszach, które zmodyfikowano tak, by łatwo rozwijały się u nich nowotwory. Okazało się, że gdy zwierzętom podawano naturalną I3C, prowadziło to do wyłączenia WWP1 i aktywizacji PTEN. Niestety, z dobroczynnych właściwości I3C nie da się skorzystać na własną rękę. Aby odnieść korzyści z działania tej molekuły musielibyśmy zjadać około 2,5 kilograma nieugotowanych brokułów dziennie. Dlatego też Pandolfi i jego zespół wciąż poszukują bardziej efektywny inhibitorów WWP1. Genetyczna lub farmaceutyczna dezaktywacja WWP1, czy to za pomocą technologii CRISPR czy I3C może aktywować funkcję PTEN i hamować rozwój guza, mówi Pandolfi. « powrót do artykułu
  7. Chodzenie i trening siłowy znacząco obniżają ryzyko zgonów związanych z marskością wątroby. Przewlekłe choroby wątroby stają się coraz częstsze, po części z powodu narastającej epidemii otyłości. Obecnie nie ma zaleceń, jakie ćwiczenia najlepiej wykonywać, by zmniejszyć ryzyko marskości i jej powikłań. Dr Tracey Simon z Harvardzkiej Szkoły Medycznej i Massachusetts General Hospital w Bostonie śledziła losy 68.449 kobiet biorących udział w Nurses' Health Study oraz 48.748 mężczyzn z Health Professionals Follow-up Study. Na początku badania nikt nie miał chorób wątroby. Od 1986 do 2012 r. ochotnicy co 2 lata zapewniali dokładne dane nt. aktywności fizycznej (także na temat rodzaju ćwiczeń oraz ich intensywności). Okazało się, że dorośli, którzy znajdowali się w najwyższym kwintylu tygodniowego chodzenia, byli o 73% mniej zagrożeni zgonem z powodu marskości wątroby (w porównaniu do osób z najniższego kwintyla). Jeszcze większy spadek ryzyka obserwowano, gdy ochotnicy łączyli marsz z ćwiczeniami wzmacniającymi mięśnie. Naukowcy, których wyniki zostały zaprezentowane na tegorocznym Digestive Disease Week, podkreślają, że dotychczasowe studia ograniczały się do badań, które oceniały aktywność fizyczną tylko w jednym punkcie czasowym albo do badań z krótkim okresem monitoringu. Ich studium to zatem pierwsze prospektywne badanie na dużej amerykańskiej populacji, które bazowało na szczegółowych, aktualizowanych danych dot. aktywności fizycznej w dłuższym czasie. « powrót do artykułu
  8. W południowym Belize na majańskim stanowisku Ek Way Nal, na którym przetwarzano sól, znaleziono narzędzie - żłobnik - z przezroczystego jadeitu z palisandrową rączką. Wysokiej jakości materiały świadczą o tym, że pracownicy takich przybytków odgrywali ważną rolę w gospodarce okresu klasycznego cywilizacji Majów. Ludzie zajmujący się obróbką soli byli odnoszącymi sukcesy przedsiębiorcami, którzy dzięki produkcji i dystrybucji towaru pierwszej potrzeby - soli - mogli pozyskać do uprawiania swojego rzemiosła wysokiej jakości narzędzia. Sól była ważną częścią majańskiej diety. Wiemy także, że traktowano ją jak majątek nadający się do przechowywania oraz konserwant do ryb i mięsa - opowiada prof. Heather McKillop z Uniwersytetu Stanowego Luizjany. Naukowcy podkreślają, że w okresie klasycznym cywilizacji Majów (200-900 n.e.) wysokiej jakości przezroczysty jadeit był zazwyczaj zarezerwowany do produkcji np. figurek czy kolczyków dla elit. Tymczasem ekipa McKillop znalazła jadeitowe narzędzie na stanowisku obróbki soli. Ek Way Nal stanowi część odkrytej 15 lat temu sieci 110 takich przybytków. Łącznie zajmują one powierzchnię 7,78 km2. Stanowiska te znajdują się w otoczonej namorzynami słonowodnej lagunie. Z czasem zostały one zalane przez wzrost poziomu wód. Torf zakonserwował drewno, które normalnie zbutwiałoby w lesie deszczowym Ameryki Środkowej. To pierwsze takie jadeitowe narzędzie odkryte z nietkniętą rączką. Analiza struktury drewna pokazuje, że rączkę wyprodukowano z honduraskiego palisandru. Jadeitowy żłobnik zbadano w Amerykańskim Muzeum Historii Naturalnej w Nowym Jorku. Naukowcy uważają, że nie używano go do pracy w drewnie czy twardych materiałach, ale raczej do skrobania soli, cięcia i skrobania ryb/mięsa lub oczyszczania tykw. « powrót do artykułu
  9. Matki bonobo pomagają synom, by mieli więcej potomstwa. Pomoc polega m.in. na ochronie prób kopulacji i przeszkadzaniu innym samcom. Działania mam aż 3-krotnie zwiększają szanse synów na rodzicielstwo. To pierwszy raz, kiedy możemy wykazać wpływ obecności matki na bardzo istotną cechę męskiej kondycji, jaką jest płodność. Byliśmy zaskoczeni, widząc tak jak silny bezpośredni wpływ matki na liczbę wnucząt - podkreśla Martin Surbeck, prymatolog z Instytutu Antropologii Ewolucyjnej Maxa Plancka. Zespół Surbecka obserwował dzikie populacje bonobo z Demokratycznej Republiki Konga oraz dzikie populacje szympansów z Wybrzeża Kości Słoniowej, Tanzanii i Ugandy. Okazało się, że o ile i matki szympansów, i bonobo popierają synów w męsko-męskich konfliktach, o tyle matki bonobo idą jeszcze o krok dalej i zabezpieczają próby kopulacyjne swoich synów oraz interweniują przy próbach kopulacji innych samców. Matki bonobo wykorzystują również swoją pozycję w matriarchalnych społeczeństwach, by zapewnić synom dostęp do popularnych miejsc i pomagają im w osiągnięciu wyższej pozycji w męskiej hierarchii. Autorzy artykułu z pisma Current Biology dodają, że takie interakcje są rzadkie w szympansich społecznościach i nie mają wpływu na męską płodność. W społecznościach szympansów to samce mają wyższą pozycję niż samice, dlatego działania szympansich matek nie są tak znaczące, jak zachowania matek bonobo. Co ważne, matki bonobo nie pomagają w ten sam sposób własnym córkom. Nie angażują się też raczej w wychowanie ich dzieci. W systemach społecznych bonobo córki opuszczają rodzinne grupy, a synowie zostają. W przypadku nielicznych pozostających córek nie widzimy większego wsparcia ze strony matek. Surbeck i inni chcą się dowiedzieć więcej o korzyściach związanych z zachowaniami matek bonobo. Obecnie prymatolodzy sądzą, że chodzi o przekazywanie swoich genów. Te samice znalazły sposób na zwiększenie sukcesu reprodukcyjnego bez rodzenia kolejnych dzieci. Surbeck uważa, ze wydłużenie poreprodukcyjnego okresu życia kobiet i wczesny wiek, w którym przechodzimy menopauzę, mogły wyewoluować właśnie z tej metody kontynuowania swojej linii genetycznej. Niemcy dodają, że zebranie danych nt. czasu trwania okresu poreprodukcyjnego u samic bonobo i szympansów będzie wymagać kolejnego długoterminowego badania. « powrót do artykułu
  10. Przyzwyczajeni jesteśmy myśleć, że historia ludzkości to historia postępu. Jednym z najważniejszych wydarzeń w historii ludzkości jest przejście z łowiecko-zbierackiego trybu życia, do uprawy roli. Tymczasem badania przeprowadzone na Filipinach wskazują, że łowcy-zbieracze, którzy przeszli na rolnictwo, pracują o 10 godzin w tygodniu dłużej. To zaś każe nam zapytać, czy to na pewno postęp, a jeśli tak, to czemu postęp ma służyć. Okazało się też, że zaadaptowanie rolnictwa najbardziej wpłynęło na życie kobiet. Antropolog Mark Dyble z University of Cambridge i jego koledzy przez dwa lata żyli wśród Aetów, niewielkiej populacji łowców-zbieraczy zamieszkujących północne Filipiny, którzy stopniowo adaptują rolnictwo. Każdego dnia pomiędzy godzinami 6 a 18 naukowcy zapisywali, co robią ich gospodarze, a badania takie prowadzili wśród 10 różnych społeczności Aetów. Stworzyli w ten sposób szczegółowy zapis zajęć 359 osób. Odnotowywali kiedy ludzie ci odpoczywali, kiedy zajmowali się dziećmi, kiedy wykonywali obowiązki domowe i kiedy pracowali poza domem. Część badanych społeczności Aetów prowadzi wyłącznie gospodarkę zbieracko-łowiecką, a część zajmuje się zbieractwem i uprawą ryżu. Badania, których wyniki opublikowano właśnie w Nature Human Behaviour wskazują, że im bardziej Aetowie angażują się w rolnictwo i działalność niepowiązaną ze zbieractwem, tym ciężej pracują i mniej mają czasu na odpoczynek. Obliczono, że Aetowie, którzy skupiają się głównie na rolnictwie pracują przez 30 godzin tygodniowo, zaś ci, którzy pozostali przy gospodarce zbieracko-łowieckiej pracują 20 godzin tygodniowo. Uczeni odkryli, że tak drastyczna różnica wynika przede wszystkim z faktu, że tam, gdzie zaadaptowano rolnictwo, kobiety zostały oderwane od obowiązków domowych by pracować w polu. Kobiety żyjące w społecznościach zajmujących się rolnictwem mają o połowę mniej czasu na wypoczynek, niż kobiety łowców-zbieraczy. Przez długi czas uważano, że przejście na rolnictwo oznacza postęp, gdyż pozwoliło to ludziom na porzucenie ciężkiego i niepewnego trybu życia. Jednak od samego początku badań antropologicznych nad łowcami-zbieraczami zaczęto kwestionować to przekonanie wskazując, że łowcy-zbieracze mają dużo wolnego czasu. Nasze badania dostarczają najmocniejszych dowodów na poparcie tej hipotezy, mówi Dyble. Średnio wszyscy Aetowie spędzali 24 godziny tygodniowo na pracy poza domem, około 20 godzin tygodniowo na obowiązkach domowych i około 30 godzin tygodniowo na odpoczynku za dnia. Jednak podział tego czasu był mocno zróżnicowany. Zarówno kobiety i mężczyźni mieli najmniej czasu wolnego gdy byli w wieku około 30 lat. Im byli starsi, tym więcej wolnego mieli. Istniały też różnice pomiędzy płciami. Kobiety spędzały mniej czasu na pracy poza domem, a więcej na pracach domowych i opiece nad dziećmi. Miały tyle samo czasu wolnego co mężczyźni. Jednak przejście na rolnictwo miało nieproporcjonalny wpływ na życie kobiet. Stało się tak prawdopodobnie dlatego, że pracą w polu jest łatwiej się dzielić niż polowaniem czy łowieniem ryb. Niewykluczone jednak, że istnieje jakaś inna przyczyna, dla której mężczyźni nie są gotowi lub zdolni do spędzania większej ilości czasu na pracy w polu. To wymaga dalszych badań, stwierdza Dyble. Przypomnijmy, że rolnictwo pojawiło się przed ponad 12 000 laty, a około 5000 lat temu zdominowało ludzką działalność. Współautorka badań, doktor Abigail Page, antropolog z London School of Hygiene and Tropical Medicine mówi: Musimy być bardzo ostrożni ekstrapolując dane na temat współczesnych łowców-zbieraczy na prehistoryczne społeczności. Jeśli jednak pierwsi rolnicy naprawdę musieli pracować ciężej, by się utrzymać, to powstaje ważne pytanie – dlaczego ludzie zaadaptowali rolnictwo?. Uczona zauważa też, że ilość czasu wolnego, jaki mają Aetowie do dowód na wydajność gospodarki łowiecko-zbierackiej. Tak dużo wolnego pozwala również wyjaśnić, w jaki sposób społeczności łowiecko-zbierackie są w stanie nabyć tak wiele wiedzy i umiejętności w czasie własnego życia oraz życia kolejnych pokoleń. « powrót do artykułu
  11. Komórki macierzyste łożyska, zwane Cdx2, regenerują komórki serca po zawale, donoszą naukowcy z Icahn School of Medicine. Ich odkrycie może przyczynić się do powstania nowych standardów leczenia chorób kardiologicznych. Dotychczas sądzono, że komórki Cdx2 regenerują jedynie łożysko podczas wczesnego rozwoju embrionalnego. Nigdy nie wykazano ich zdolności do regenerowania innych organów, dlatego to takie ekscytujące. Odkrycie to może przyczynić się do powstania terapii regeneracji innych organów niż serce. One są superbohaterami świata komórek macierzystych w tym sensie, że potrafią namierzyć miejsce uszkodzenia i dotrzeć bezpośrednio do niego podróżując wzdłuż układu krążenia oraz potrafią uniknąć odrzucenia przez układ odpornościowy gospodarza, mówi główna autorka badań, doktor Hina Chaudhry. Już wcześniej specjaliści z Mount Sinai zauważyli, że różnorodna populacja komórek macierzystych z mysiego łożyska pomaga w naprawie uszkodzonego serca ciężarnej myszy. Podczas najnowszych badań wykazali, że komórki macierzyste z łożyska wędrują bezpośrednio do miejsca uszkodzenia i tam zmieniają się w komórki serca. Celem naukowców było zbadanie, które konkretnie komórki biorą udział w regeneracji serca. Na początku przyjrzeli się komórkom Cdx2, gdyż były one najczęściej występującymi komórkami podczas wcześniejszych badań. Odkryli, że to właśnie Cdx2 stanowią aż 40% wszystkich komórek biorących udział w regeneracji mięśnia sercowego. Aby przetestować właściwości Cdx2 naukowcy wywołali atak serca u trzech grup samców myszy. Jednej z nich wstrzyknięto komórki Cdx2 pobrane z łożyska pod koniec ciąży, drugiej wstrzyknięto komórki łożyska, które nie były komórkami Cdx2, a trzeciej podano sól fizjologiczną. Myszy zbadano za pomocą rezonansu magnetycznego natychmiast po ataku serca oraz trzy miesiące po podaniu komórek lub soli fizjologicznej. Okazało się, że u wszystkich myszy, którym podano komórki Cdx2 doszło do znaczącej regeneracji mięśnia sercowego. W ciągu trzech miesięcy komórki Cdx2 zdołały migrować bezpośrednio do miejsca uszkodzenia, gdzie utworzyły nowe naczynia krwionośne i kardiomiocyty. U pozostałych dwóch grup myszy nie zauważono żadnych oznak regeneracji. Naukowcy zauważyli jeszcze dwie bardzo istotne właściwości Cdx2. Zawierały one wszystkie proteiny embrionalnych komórek macierzystych, co oznacza, że prawdopodobnie mogą regenerować dowolny organ. Ponadto zawierały dodatkowe proteiny, dzięki którym mogły wędrować bezpośrednio do miejsca uszkodzenia, czego zwykłe komórki nie potrafią, ponadto były w stanie unikać układu immunologicznego gospodarza. Po ich wstrzyknięciu nie dochodziło do odrzucenia komórek. To kluczowe właściwości dla rozwoju terapii wykorzystujących ludzkie komórki macierzyste. Byliśmy w stanie wyizolować komórki Cdx2 również z ludzkich łożysk. Mamy nawieję, że dzięki temu opracujemy lepsze niż dotychczas metody leczenia mięśnia sercowego. Do tej pory testowano na ludziach terapie z użyciem komórek, o których z góry nie było wiadomo, czy utworzą komórki serca oraz używano komórek embrionów, co rodziło problemy etyczne oraz problemy z ich dostępnością. Tymczasem na całym świecie łożyska się po prostu wyrzuca, co oznacza, że mamy do czynienia z ich niemal niewyczerpanym źródłem, mówi Chaudhry. Uzyskane wyniki bardzo nas zaskoczyły. Dotychczas żadne inne komórki nie zmieniały się w warunkach laboratoryjnych w kardiomiocyty. Te nie tylko to robiły, ale dokładnie wiedziały, gdzie doszło do uszkodzenia i tam podążały z krwioobiegiem, dodaje doktor Sangeetha Vadakke-Madathil. « powrót do artykułu
  12. Jak donosi Gazeta Wyborcza, w Krakowie na świat przyszły pierwsze w Polsce sześcioraczki. Udany poród miał miejsce dzisiaj, 20 maja, przed południem w Szpitalu Uniwersyteckim. Dzieci urodziły się przez cesarskie cięcie w 29. tygodniu ciąży. Najmniejsze z nich waży 890 gramów, największe zaś 1300. Obecnie maluchy przebywają w inkubatorach. Zarówno one jak i matka czują się dobrze. Kierownik oddziału neonatologii, profesor Ryszard Lauterbach powiedział, że lekarze byli przygotowani na narodziny pięciorga dzieci. Dopiero podczas zabiegu okazało się, że 29-latka będzie miała sześcioro kolejnych dzieci, w tym cztery córki i dwóch synów. W domu na rodzeństwo czeka już 2,5-letni chłopiec. Ze statystyk wynika, że sześcioraczki rodzą się raz na 4,7 miliarda ciąż. Samą ciążę bardzo trudno jest doprowadzić do końca. Młodej matce pogratulował na Twitterze prezydent Duda, a klub piłkarski Cracovia poinformował, że dzieci otrzymają dożywotnie karnety na mecze. Krakowski Szpital Uniwersytecki ma szczęście do wieloraczków. Przed 11 laty urodziły się tam pięcioraczki, dziewczynki. « powrót do artykułu
  13. Włoscy i hiszpańscy naukowcy zauważyli, że gdy do hodowli komórek raka jelita grubego doda się miodu z chruściny jagodnej (Arbutus unedo), zwanej też drzewem truskawkowym, zahamowuje to ich namnażanie. Zmniejsza się też zdolność tworzenia kolonii. Autorzy raportu z Journal of Functional Foods mają nadzieję, że obiecujące rezultaty i potencjał tego typowo śródziemnomorskiego produktu potwierdzą się w modelach in vivo. Miód z chruściny jagodnej (ang. strawberry-tree honey, STH) ma gorzki smak przypominający kawę i ciemną barwę. Samo drzewo truskawkowe występuje w herbie Madrytu. Naukowcy z Uniwersytetów w Vigo i Grenadzie oraz Università Politecnica delle Marche przebadali potencjał wyjątkowego miodu w zakresie walki z rakiem jelita grubego. Jak podkreślają, głównymi składnikami fenolowymi są kemferol i kwas galusowy. Podczas testów laboratoryjnych wykazano, że miód hamuje namnażanie 2 linii komórek rakowych: HCT-116 i LoVo. Cytotoksyczność i przeciwnowotworowy wpływ  rosły wraz z czasem terapii i dawką. Miód zatrzymywał cykl komórkowy na fazie S oraz G2/M. Regulował też geny cyklu komórkowego, w tym cykliny D1, cykliny E, CDK2, CDK4, p21Cip, p27Kip i p-RB. Oprócz tego miód hamował migrację komórek, obniżał zdolność tworzenia kolonii oraz wywoływał apoptozę, modulując kluczowe geny i czynniki apoptyczne. [STH] hamuje receptor czynnika wzrostu naskórka [ang. epidermal growth factor receptor, EGFR] i jego szlaki sygnałowe - opowiada Maurizio Battino. Zaobserwowano też inne istotne klinicznie zjawiska, m.in. obniżenie poziomu pewnych czynników transkrypcyjnych, np. Nrf2, a także spadek wszystkich parametrów oddychania mitochondrialnego i glikolizy komórek rakowych. Poza tym hiszpańsko-włoski zespół wspomina o znaczącym stresie oksydacyjnym; wskazywały na to wzrost wewnątrzkomórkowej produkcji reaktywnych form tlenu (RFT), uszkodzenia lipidów i białek oraz spadek aktywności enzymu przeciwutleniającego. Żadnego z tych zjawisk nie stwierdzono po dodaniu miodu do zdrowych komórek [fibroblastów skóry ludzkiej]. Battino podkreśla, że potrzebne są badania na zwierzętach. Nasze wyniki stanowią jedynie punkt wyjścia do oceny potencjalnych biologicznych i przeciwnowotworowych właściwości miodu z drzewa truskawkowego. Wskazują one główne mechanizmy molekularne, za pośrednictwem których miód może działać [...]. « powrót do artykułu
  14. Współpracujące ze sobą samochody autonomiczne mogą przyspieszyć ruch w miastach o 35%. Naukowcy z University of Cambridge zaprogramowali niewielką grupę miniaturowych samochodów autonomicznych i na torze obserwowali, w jaki sposób zmienia się płynność ruchu, gdy jeden z pojazdów się zatrzyma. Gdy samochody ze sobą nie współpracowały, uczeni obserwowali zjawisko, które znamy z codziennego życia. Gdy jeden z samochodów na pasie ruchu się zatrzymał, inne pojazdy na tym samym pasie musiały zwolnić lub zatrzymać się i poczekać, aż na sąsiednim pasie zrobi się luka, w którą można wjechać i ominąć stojący pojazd. W ten sposób szybko formował się korek i ruch na całej drodze ulegał spowolnieniu. Gdy jednak samochody komunikowały się ze sobą, sytuacja ulegała całkowitej zmianie. Samochód, który zatrzymywał się, natychmiast wysyłał o tym informację do innych uczestników ruchu. Samochody, które jechały wolnym pasem nieco zwalniały, dzięki czemu pojazdy, poruszające się pasem, na którym stał samochód, mogły bez zatrzymywania się lub znaczącego zwalniania wjechać na pas obok. Co więcej, jeśli wśród autonomicznych komunikujących się między sobą pojazdów umieszczono samochód kierowany przez człowieka, który jeździł agresywnie, samochody autonomiczne były w stanie przepuścić agresywnego kierowcę, zwiększając bezpieczeństwo ruchu. Samochody autonomiczne mogą rozwiązać wiele różnych problemów, związanych z ruchem w mieście. Jednak muszą w tym celu ze sobą współpracować, mówi współautor badań studen Michael He, który jest autorem algorytmu wykorzystanego podczas eksperymentu. Jeśli różni producenci samochodów będą opracowywali autonomiczne pojazdy z własnym oprogramowaniem, to muszą mieć one możliwość wzajemnej komunikacji, dodaje studetn Nicholas Hyldmar, który stworzył większość sprzętu użytego w czasie badań. Obaj młodzi naukowcy podeszli do problemów w dość nowatorski sposób. Wiele eksperymentów dotyczących pojazdów autonomicznych prowadzonych jest albo na ekranie komputera, albo za pomocą prawdziwych samochodów. W wielu przypadkach, szczególnie tam, gdzie mamy do czynienia z grupami pojazdów, eksperymenty takie są bardzo kosztowne i brak jest miejsca, by je odpowiednio przeprowadzić. Obaj studenci wykorzystali komercyjnie dostępne niewielkie modele prawdziwych samochodów, wyposażyli je w odpowiednie czujniki, platformę Raspberry Pi oraz zaadaptowane przez siebie algorytmy stosowane w prawdziwych samochodach autonomicznych. Algorytmy miały przede wszystkim decydować, czy można bezpiecznie zmienić pas i w jakim tempie można się poruszać. Okazało się, że pozwalają one na gęstsze upakowanie samochodów na drodze i na bezpieczną zmianę pasa na mniejszej przestrzeni. He i Hyldmar przetestowali też różne zachowania na drodze, sytuację gdy samochody współpracowały i nie współpracowały, gdy wraz z nimi poruszał się agresywny kierowca. Okazało się, że gdy samochody ze sobą współpracowały, płynność ruchu zwiększała się o 35% w porównaniu z sytuacją, gdy nie współpracowały. Gdy zaś na drodze pojawiał się agresywny kierowca, płynność ruchu współpracujących samochodów była o 45% większa, niż płynność pojazdów niewspółpracujących. Nasza platforma pozwala na prowadzenie wielu różnych, tanich eksperymentów związanych z autonomicznymi samochodami. Jeśli chcemy takich pojazdów bezpiecznie używać, musimy wiedzieć, w jaki sposób będą one wchodziły ze sobą w interakcje i jak wpłynie to na bezpieczeństwo i płynność ruchu. W najbliższej przyszłości obaj badacze chcą przeprowadzić testy z użyciem dróg wielopasmowych, skrzyżowań i różnych typów samochodów.   « powrót do artykułu
  15. Mierzenie poziomu enzymu PDIA1 - izomerazy disiarczkowej 1 (PDIA1) - w osoczu może się stać użyteczną metodą określania predyspozycji do chorób sercowo-naczyniowych także u zdrowych osób, które nie są otyłe, nie cierpią na cukrzycę, nie palą i mają prawidłowy poziom cholesterolu. Nasze badanie pokazało, że osoby z niskim poziomem PDIA1 w osoczu cechuje bardziej zapalny profil białkowy. W związku z tym są one w większym stopniu zagrożone zakrzepicą. Dla odmiany ludzie z wysokim poziomem PDIA1 mają więcej białek związanych z [...] homeostazą i normalnym funkcjonowaniem organizmu - opowiada prof. Francisco Rafael Martins Laurindo ze Szkoły Medycznej Uniwersytetu w São Paulo. Brazylijczycy analizowali próbki osocza 35 zdrowych ochotników bez historii chorób chronicznych i ostrych. Żadna z badanych osób nie paliła, a także nie zażywała przewlekle leków czy narkotyków. Na przestrzeni 10-15 miesięcy osocze pobierano 10-15-krotnie w kilkudniowych bądź kilkutygodniowych odstępach. U większości osób poziom krążących PDI mieścił się w wąskim zakresie. W grupie 5 ochotników stężenie PDIA1 mierzono 3 razy w ciągu 9 godzin. I w tym przypadku zmienność poziomu enzymu była nieistotna (pomijalna). Pomiary pokazały, że niektórzy mieli bardzo wysokie poziomy PDIA1, podczas gdy u innych były one bardzo niskie, prawie niemierzalne. Gdy testy powtarzano, u tych samych osób wartości prawie się nie zmieniały - opowiada Laurindo. Naukowcy mierzyli także poziomy PDIA1 w 90 próbkach osocza z banku (pochodziły one od pacjentów z chorobą sercowo-naczyniową). Analizy stale wykazywały niski poziom PDIA1. W dalszym etapie studium Brazylijczycy przeprowadzili badania proteomiczne. Chcieli w ten sposób sprawdzić, jak stężenie PDIA1 koreluje z jednostkową sygnaturą białkową. Akademicy zauważyli, że gdy hodowlę żylnych komórek śródbłonka potraktowano osoczem z niskim poziomem PDIA1, adhezja i migracja były zaburzone; porównań dokonywano do komórek potraktowanych osoczem bogatym w enzym. Na podstawie tych wyników ekipa Laurindy doszła do wniosku, że stężenie PDIA1 w osoczu to swego rodzaju okno do osoczowej sygnatury białkowej związanej z funkcją śródbłonka. Może więc ono wskazywać na jednostkową predyspozycję do choroby sercowo-naczyniowej. Badanie nie wykazało korelacji między poziomem PDIA1 i znanymi czynnikami ryzyka chorób sercowo-naczyniowych, np. stężeniem cholesterolu czy trójglicerydów. W przyszłości Brazylijczycy zamierzają zbadać poziom PDIA1 w ostrej chorobie niedokrwiennej serca. Chcą też zbadać innych przedstawicieli rodziny izomeraz disiarczkowych białek (ang. protein disulfide isomerase family). Dzięki temu można się będzie dowiedzieć, czy wszystkie te enzymy są potencjalnym markerami podatności na choroby sercowo-naczyniowe. « powrót do artykułu
  16. Istnieją 4 podtypy sepsy, które wymagają różnych podejść terapeutycznych. Christopher Seymour z Centrum Medycznego Uniwersytetu w Pittsburghu podkreśla, że od dawna nie dokonano większych przełomów w leczeniu posocznicy. Amerykanin dodaje, że dzieje się tak po części dlatego, że forsowane są protokoły ujednoliconej terapii dla wszystkich pacjentów. W ramach projektu Sepsis ENdotyping in Emergency Care (SENECA) zespół Seymoura posłużył się algorytmem. Analizowano 29 zmiennych klinicznych, uwzględnionych w dokumentacji ponad 20 tys. pacjentów, u których sepsę rozpoznano w ciągu 6 godzin od przybycia do szpitala w latach 2010-12. Algorytm rozdzielił pacjentów do 4 unikatowych podtypów posocznicy. W najczęstszym typie alfa (33%) obserwowano najmniej nieprawidłowych wyników badań laboratoryjnych, najmniejszą dysfunkcję narządową i najniższy wskaźnik zgonów szpitalnych (2%). Podtyp beta (27%) obejmował starszych pacjentów z chorobami przewlekłymi i dysfunkcją nerek. Podtyp gamma występował z podobną częstotliwością, co podtyp beta. Cechowało go podwyższenie markerów zapalnych i dysfunkcja głównie pulmonologiczna. Najrzadszy (13%), ale najbardziej śmiertelny (32%) okazał się podtyp delta. Często cechowała go dysfunkcja wątroby i wstrząs. W dalszym etapie badań naukowcy przeanalizowali e-dane kolejnych 43 tys. pacjentów z lat 2013-14. Uzyskali podobne rezultaty. Później analizowano jeszcze dane kliniczne i biomarkery odpowiedzi immunologicznej niemal 500 tys. pacjentów z zapaleniem płuc z 28 amerykańskich szpitali. Na końcu ekipa Seymoura odniosła swoje ustalenia do kilku niedawnych międzynarodowych badań, w ramach których testowano obiecujące terapie sepsy - wszystkie skończyły się, niestety, niepowodzeniem. Gdyby uczestników podzielono ze względu na podtypy posocznicy, niektóre z badań mogłyby się nie zakończyć porażką. Po 5-letnim kosztującym 8,4 mln dol. studium stwierdzono na przykład, że wczesna terapia ukierunkowana na osiągnięcie celu (ang. early goal-directed therapy, EGDT) - agresywny protokół resuscytacji, który obejmuje m.in. założenie cewnika, by monitorować ciśnienie i poziom tlenu oraz podawać leki, płyny i przetaczać krew - się nie sprawdza. Gdy jednak zespół Seymoura przejrzał dane, stwierdził, że EGDT był korzystny dla pacjentów z podtypem alfa. Przy podtypie delta pogarszał jednak rokowania. Intuicyjnie to ma sens - nie zastosowalibyśmy przecież tego samego leczenia u wszystkich chorych z rakiem piersi. Niektóre raki sutka są bardziej inwazyjne i muszą być leczone agresywnie. Ocenia się je również pod kątem różnych markerów. [...] W kolejnym etapie badań chcemy opracować analogiczne zindywidualizowane podejście do sepsy - znaleźć terapie działające na konkretne podtypy i zaprojektować badania kliniczne, które pozwoliłyby je przetestować - podsumowuje dr Derek Angus. « powrót do artykułu
  17. Dzisiaj oficjalnie porzuciliśmy dotychczasowy wzorzec kilograma. Nie jest on już zdefiniowany za pomocą fizycznego obiektu przechowywanego w Sevres pod Paryżem. Obowiązuje nowa definicja, oparta o stałą Plancka. W listopadzie ubiegłego roku przedstawiciele 60 krajów zdecydowali o zmianie definicji Międzynarodowego Układu Jednostek Miar. Ustalono, że wszystkie jednostki SI zostaną oparte o stałe opisujące w naturze. Dzięki temu system SI pozostanie stabilny i pozwoli na zaimplementowanie nowych definicji w najnowszych technologiach. Zmiany, które weszły dzisiaj w życie kładą kres definiowaniu jednostek miar za pomocą fizycznych obiektów. Zmieniono więc definicje kilograma, ampera, kelwina i mola oraz wszystkie wywodzące się z nich definicje, np. dżula, wolta czy oma. Zmiana definicji ma wymiar czysto praktyczny. Same kilogramy czy ampery się nie zmienią. Jednak znacznie łatwiej będzie takie jednostki stosować. Dotychczas bowiem jedynym sposobem na upewnienie się, że wykorzystywany kilogram naprawdę jest kilogramem, było jego porównanie z fizycznym wzorcem. To zaś jest kłopotliwe i skomplikowane, tym bardziej że i fizyczny obiekt reprezentujący kilogram może z czasem ulegać zmianom. Szacuje się, że istniejący od 130 lat wzorzec z Sevres stracił na wadze 50 mikrogramów. A to oznacza, że w poszczególnych latach kilogram był kilogramowi nierówny. Dzięki oparciu definicji o stałe występujące w naturze wystarczy przeprowadzenie odpowiednich obliczeń matematycznych. A te można przeprowadzić zawsze i wszędzie. W przeciwieństwie do obiektu fizycznego, stałe fundamentalne nie zmieniają się. Od dzisiaj kilogram będzie miał tę samą masę, niezależnie od tego, czy znajdumy się na Ziemi, na Marsie czy w Galaktyce Andromedy, mówi Stephan Schlamminger z Narodowego Instytutu Standardów i Technologii (NIST). Metrolodzy, czyli naukowcy zajmujący się miarami, mówią, że zmiana definicji to niezwykle ważny moment w historii człowieka. Zdolność do dokonywania coraz dokładniejszych pomiarów to jeden z warunków postępu, jakiego dokonuje nasz gatunek, wyjaśnia dyrektor NIST, Walter Copan. Początki systemu metrycznego sięgają Rewolucji Francuskiej. W tym czasie w samej tylko Francji używano około 250 000 różnych jednostek pomiarowych. To nastręczało olbrzymich kłopotów chociażby przy wymianie towarów. Zaprojektowano więc nowy system, który miał być racjonalny i uniwersalny, a jego jednostki miały opierać się na naturze, a nie na dekretach lokalnych książąt czy rad miejskich. Chciano stworzyć wieczne uniwersalne dla całego świata jednostki miar, mówi historyk nauki, Ken Alder z Northwestern University. Podstawą nowego systemu stał się metr, który określono jako jedną dziesięciomilionową odległości pomiędzy Biegunem Północnym a równikiem mierzonym wzdłuż południka przechodzącego przez Paryż. Już ówcześni naukowcy popełnili niewielki błąd i od samego początku metr był o 2 milimetry dłuższy niż długość wynikająca z definicji. Z kolei kilogram zdefiniowano jako wagę 1000 centymetrów sześciennych wody o temperaturze 4 stopni Celsjusza. We Francji nowy system przyjęto w 1795 roku. W kolejnych latach adaptowały go kolejne kraje. W 1875 roku podpisano porozumienie, które wprowadziło uniwersalny system bazujący na metrze, kilogramie i sekundzie. Ta ostatnia została zdefiniowana jako 1/86400 czasu potrzebnego Ziemi na pełen obrót wokół własnej osi. W 1954 roku dodano do tego definicje ampera, kelwina i kandeli, a w 1967 definicję sekundy oparto na oscylacjach atomu cezu-133. W 1983 roku metr zdefiniowano jako odległość, jaką pokonuje światło w próżni w czasie 1/299.792.458 sekundy. Pozostał więc kilogram, jako ostatnia miara powiązana z obiektem fizycznym. Wzorzec z Sevres został wykonany w Londynie w 1889 roku. Składa się w 90% z platyny i w 10% z irydu. Przechowywany jest pod trzema szklanymi kloszami i wyjmowany raz na 40 lat by go oczyścić. Mimo to nie oparł się czasowi i jego masa ulega zmianom. Od dzisiaj będzie on tylko zabytkiem. Jednym ze świadków postępu technicznego. Jeszcze do wczoraj definicja kilograma mówiła, że kilogram jest to jednostka masy, równa masie prototypu przechowywanego w Międzynarodowym Biurze Miar w Sevres. Nowa definicja jest znacznie bardziej skomplikowana. Dzisiaj, jak informuje Główny Urząd Miar, kilogram definiowany jest przez przyjęcie ustalonej wartości liczbowej stałej Plancka h, wynoszącej 6,626 070 15 × 10‑34, wyrażonej w jednostce J*s, która jest równa kg*m2*s-1, przy czym metr i sekunda zdefiniowane są za pomocą c i ∆νCs. « powrót do artykułu
  18. Kawosze od dawna wiedzą, że ich ulubiony napój wspomaga pracę jelit. Naukowcy z Teksasu, którzy próbują ustalić, czemu dokładnie się tak dzieje, zauważyli, że wcale nie chodzi o kofeinę. Zespół z Uniwersytetu Teksańskiego w Galveston zaprezentował swoje wyniki na tegorocznym Digestive Disease Week (DDW) w San Diego. Podczas eksperymentów naukowcy podawali kawę szczurom, a także dodawali ją do szalek Petriego z bakteriami jelitowymi. Generalnie stwierdzono, że kawa działa hamująco na bakterie i bez względu na zawartość kofeiny, nasila ruchliwość mięśni. Kiedy szczurom przez 3 dni podawano kawę, zdolność mięśni jelita cienkiego do skurczu wydawała się rosnąć. Co ciekawe, zjawisko to było niezależne od kofeiny, ponieważ kawa bezkofeinowa wywierała taki sam efekt, jak zwykła kawa - opowiada dr Xuan-Zheng Shi. Amerykanie analizowali zmiany bakteryjne, które występowały podczas wystawiania hodowli stolca na oddziaływanie kawy. Badano też skład kału szczurów, które przez 3 dni spożywały kawę o różnych stężeniach. Poza tym zespół dokumentował reakcje mięśni gładkich jelita cienkiego i grubego. Okazało się, że wzrost bakterii i innych mikroorganizmów z kału był hamowany zarówno przez 1,5, jak i 3% roztwór kawy (przy wyższym stężeniu wpływ był silniejszy). Co jednak ciekawe, kawa bezkofeinowa działała na mikrobiom w podobny sposób. Gdy szczury przez 3 dni spożywały kawę, ogólna liczebność bakterii w ich kale spadała. Naukowcy podkreślają, że potrzebne są dalsze badania, by ustalić, czy zmiany te faworyzują dobre bakterie Firmicutes, czy złe enterobakterie. Po okresie spożycia kawy mięśnie dolnej części jelita cienkiego i jelita grubego szczurów wykazywały zwiększoną zdolność kurczenia. Gdy w laboratorium tkankę mięśniową jelit cienkiego i grubego wystawiano bezpośrednio na oddziaływanie kawy, stymulowała ona skurcze. Teksańczycy podkreślają, że potrzebne są dodatkowe badania kliniczne, które pokażą, czy picie kawy może pomóc na zaparcia pooperacyjne. « powrót do artykułu
  19. Administracji prezydenta Trumpa już po raz kolejny nie udało się obciąć wydatków na naukę. Co więcej, po raz kolejny członkowie Kongresu zaproponowali zwiększenie wydatków. Jak informowaliśmy w ubiegłym roku, wbrew życzeniom Białego Domu kongresmeni nie tylko uchwalili największą od 10 lat podwyżkę wydatków na naukę, ale uchwalili też największy, po uwzględnieniu inflacji, budżet USA na prace badawczo-rozwojowe. Wyniósł on niemal 177 miliardów dolarów czyli był o 50% większy niż cały budżet jakim dysponuje Polska. W bieżącym roku historia może się powtórzyć. Izba Reprezentantów proponuje bowiem, by budżet Narodowej Fundacji Nauki (NSF) zwiększyć o 7%, a budżet NASA o 3,8%. Propozycje na rok podatkowy 2020, który rozpoczyna się w USA 1 października zakładają, że NSF otrzyma 8,64 miliarda USD, czyli o 561 milionów więcej niż w roku 2019. Administracja prezydencka wnioskowała o obcięcie budżetu o 12,5%, czyli o 1 miliard dolarów, do poziomu 7,1 miliarda USD. We wspomnianej kwocie znajduje się budżet na badania, który wzrośnie o 8,9%, czyli o 586 milionów dolarów, do poziomu 7,1 miliarda USD. Biały Dom chciał obniżki o 13%, do poziomu 5,6 miliarda. Izba Reprezentantów proponuje też, by przyszłoroczny budżet NASA zwiększyć o 815 milionów dolarów, do kwoty 22,3 miliarda. Administracja prezydenta chciała obniżki o 2% (480 milionów) do kwoty 21 miliardów. Programy naukowe NASA mają dostać o 256 milionów dolarów więcej, czyli 7,2 miliarda USD. Zaproponowano też zwiększenie środków na programy badawcze prowadzone przez Narodowy Instytut Standardów i Technologii (NIST). Kongresmeni proponują tutaj kwotę 751 milionów dolarów, tymczasem Biały Dom chciał ją obniżyć o 112 milionów, czyli do poziomu 612 milionów USD. Budżet Narodowej Administracji Oceanicznej i Atmosferycznej pozostanie na tym samym poziomie 5,4 miliarda USD. To o 900 milionów więcej, niż chciał przyznać Biały Dom. Powyższa propozycja będzie głosowana przez Izbę Reprezentantów. Senat nie ujawnił jeszcze swojej propozycji budżetowej. Obecnie nie wiadomo, czy Kongres i Biały Dom porozumieją się co do przyszłorocznego budżetu przed rozpoczęciem nowego roku podatkowego. Jeśli do porozumienia nie dojedzie, to budżet z 2019 roku może zostać przedłużony na rok 2020 lub też dojdzie do znanego z przeszłości zamknięcia rządu. « powrót do artykułu
  20. Metale z bloku d, takie jak cynk, miedź i chrom, wiążą się ze stanowiącym część cząsteczki proinsuliny peptydem C i wpływają na jego zachowanie. Naukowcy z Uniwersytetu Kalifornijskiego w Davis (UCD) wyjaśniają, że ich badanie reprezentuje nową dziedzinę nauki - metaloendokrynologię, która zajmuje się rolą metali w procesach biologicznych. Metale spełniają ważną rolę w wielu procesach biochemicznych. Transportująca tlen hemoglobina zawiera żelazo, zaś cynk i miedź biorą udział w ok. 1/3 wszystkich funkcji organizmu. Zespół prof. Marie Heffern z UCD stosuje nowe techniki, by ustalić, jak metale są rozłożone w i na zewnątrz komórek, a także jak wiążą się one z białkami i innymi cząsteczkami oraz w jaki sposób na nie wpływają. W ramach nowego studium Amerykanie przyglądali się peptydowi C, który jest badany pod kątem terapii choroby nerek i uszkodzenia nerwów (neuropatii) w przebiegu cukrzycy. Lepsze zrozumienie, jak peptyd C zachowuje się w różnych warunkach, może mieć spore znaczenie dla produkcji leków. Peptyd C łączy łańcuchy A i B insuliny. Jest wycinany podczas uwalniania insuliny z trzustki i wraz z nią dostaje się do krwiobiegu. Wcześniej uważano go za produkt uboczny powstawania insuliny, jednak teraz wiadomo, że sam pełni funkcję hormonu. Podczas testów w probówce akademicy sprawdzali, jak szybko cynk, miedź i chrom wiążą się z peptydem C i jak metale te wpływają na zdolność komórek do jego wychwytywania. Okazało się, że metale wywierają lekki wpływ na strukturę drugorzędową peptydu C. Choć pewne warunki sprzyjają przyjmowaniu przez peptyd kształtu α‐helisy, związanie z metalem hamuje taką zmianę konformacji. Miedź i chrom nie dopuszczały do wychwytu hormonu przez komórki; inne metale, takie jak cynk, kobalt i magnez, nie działały jednak w ten sposób. Wyniki, które opublikowano w piśmie ChemBioChem, pokazują, że metale mogą dostrajać aktywność hormonów, np. peptydu C, zmieniając ich budowę lub oddziałując na ich wychwytywanie przez komórki. « powrót do artykułu
  21. Anatomicznie współcześni ludzie piekli i jedli włókna roślinne już 120 000 lat temu. Dowody na takie zachowania znaleźli naukowcy z południowoafrykańskiego University of the Witwatersrand, którzy badali jaskinię Klasies River w południowej części Przylądka Dobrej Nadziei. Wyniki ich badań, które opublikowano na łamach Journal of Human Evolution są pierwszymi archeologicznymi dowodami na potwierdzenie hipotezy mówiące, że duplikacja genów odpowiadających za trawienie błonnika to adaptacja do coraz częstszego spożywania włókien przez człowieka. To niezwykle ekscytujące. Dowody genetyczne i biologiczne wskazują, że wcześni ludzie musieli jeść włókna roślinne, ale dotychczas nie udawało się tego potwierdzić, mówi główna autorka artykułu, Cynthia Larbey z Wydziału Archeologii University of Cambridge. Odkrycia dokonano w ramach projektu, którego celem jest zbadanie roli roślin i ognia w życiu społeczności ze środkowej epoki kamienia. Nasze badania dowodzą, że niewielkie pełne popiołu paleniska były wykorzystywane do przygotowania posiłków, korzeni rośłin i bulw, które stanowiły część diety. Najstarsze ślady takich zachowań liczą sobie 120 000 lat, a działalność taka była kontynuowana jeszcze 65 000 lat temu. Pomimo zmian w strategii polowań i technologii wytwarzania kamiennych narzędzi, ludzie wciąż gotowali korzenie i bulwy, mówi Larbey. Kierowniczka stanowiska archeologicznego profesor Sarah Wurz z Wydziału Geografii, Archeologiii i Studiów Środowiskowych University of the Witwatersrand dodaje, żę "wcześni ludzie mieli zbilansowaną dietę, byli ekologicznymi geniuszami, zdolnymi do inteligentnej eksploracji swojego środowiska w celu zdobycia odpowiedniej żywności oraz, prawdopodobnie, leków". Ludzie ci już przed 120 000 lat wykazywali dużą inteligencję, stosując zbilansowaną dietę składającą się z korzeni, bulw oraz białka i tłuszczu pozyskiwanego ze skorupiaków, ryb oraz zwierząt lądowych. Byli optymalnie przystosowani do środowiska, w którym żyli. Błonnik nie jest czymś, co ludzie zaczęli jeść gdy opanowali rolnictwo. To bardzo dawny składnik diety człowieka, dodaje Larbey. Dowody z Klasies River, takie jak liczne fragmenty czaszek oraz dwa fragmenty szczęki sprzed 120 000 lat wskazują, że ludzie, którzy żyli tutaj w tym czasie wyglądali jak ludzie współcześni. Byli jednak mocniej zbudowani, stwierdza profesor Wurz. « powrót do artykułu
  22. Nowe badania sugerują, że to genetyka decyduje o tym, czy będziemy... mieli psa. Szwedzko-brytyjski zespół naukowy przyjrzał się 35 035 par szwedzkich bliźniąt pod kątem posiadania przez nich psa. Okazało się, że w ponad połowie przypadków posiadanie psa można wyjaśnić za pomocą różnic genetycznych. Psy są pierwszymi udomowionymi zwierzętami i towarzyszą nam od co najmniej 15 000 lat. Obecnie są one jednymi z najbardziej popularnych zwierząt domowych, a badania wykazały, że poprawiają one dobrostan i zdrowie ludzi. Podczas omawianych tutaj badań naukowcy porównywali genomy osób znajdujących się w największej na świecie bazie danych bliźniąt – Szwedzkiego Rejestru Bliźniąt. Celem badań było stwierdzenie, czy posiadanie psa było zapisane w genach. Byliśmy zaskoczeni faktem, kod genetyczny człowieka wydaje się być znaczącym czynnikiem decydującym o tym, czy będzie on miał psa. Odkrycie to niesie ze sobą duże implikacje dla zrozumienia interakcji psów i ludzi w czasach historycznych i obecnych. Chociaż psy i inne zwierzęta są członkami wielu rodzin na całym świecie, wciąż niewiele wiemy o ich wpływie na nasze codzienne życie i zdrowie. Być może niektórzy mają większą wrodzoną skłonność do posiadania psa niż inni, mówi profesor epidemiologii molekularnej Tove Fall z Uniwersytetu w Uppsali. To ważne badania, gdyż mogą wskazywać, że lepsze zdrowie właścicieli psów może wynikać z odmiennej genetyki tych osób, dodaje Carri Westgarth z Uniwersytetu w Liverpoolu. Ten rodzaj badań nad bliźniętami mie pozwalają na dokładne określenie, które geny biorą w tym udział, ale przynajmniej po raz pierwszy wykazaliśy, że genetyka i środowiska odgrywają mniej więcej równe role w decyzji o posiadaniu psa. Następnym oczywistym krokiem będzie próba określenia, które dokładnie odmiany genów wpływają na taki wybór i w jaki sposób geny te są powiązane z osobowością i innymi czynnikami, takimi jak podatność na alergie, stwierdza Patrik Magnusson, profesor epidemiologii i biostatystyki z Karolinska Institutet. Badania te mają olbrzymie znaczenie dla zrozumienia bogatej i ulotnej historii udomowienia psów. Dekady badań archeologicznych pomogły nam lepiej zrekonstruować gdzie i kiedy psy pojawiły się w świecie człowieka, a współczesne i starożytne dane genetyczne pozwolą nam badać, dlaczego i jak się to stało, dodaje zooarcheolog Keith Dobney z Liverpoolu. « powrót do artykułu
  23. Na boliwijskich sawannach Llanos de Moxos istniała sieć sztucznych zbiorników, w których ludzie hodowali ryby, dzięki czemu mieli dostęp do żywności, poinformowała Gabriela Prestes-Carnerio z Universidade Federal do Oeste do Pará. Przeprowadziła ona pierwsze badania, podczas których określono wszystkie gatunki ryb, jakie były hodowane przez ludzi, zapewniając im żywność w czasie wielomiesięcznych susz. Niedawno informowaliśmy, że ludzie zamieszkali region Llanos de Moxos znacznie wcześniej, niż dotychczas sądzono. Na Llanos de Moxos w centralnej Boliwii ulewne deszcze padają od października do kwietnia, a później następuje wielomiesięczna susza. Od około roku 500 naszej ery ludzie zaczęli budować w tamtym regionie monumentalne ziemne konstrukcje, na których powstawały stałe osady. Jedna z takich osad, Loma Salavtierra, która znajduje się 50 kilometrów od najbliższej większej rzeki, stała się ważnym stanowiskiem archeologicznym. Już podczas wcześniejszych badań stwierdzono, że w okolicach osady zbudowano płytkie stawy otoczone wałami ziemnymi i połączone kanałami. Ich zadaniem było przechwytywanie i przechowywanie deszczówki, osuszanie terenu oraz hodowla ryb. Podczas najnowszych badań naukowcy zidentyfikowali szczątki ponad 17 000 ryb należących do ponad 35 gatunków. Dominowały wśród nich ryby z rodziny szczelinowatych, zbrojnikowatych, dwudysznych i kąsaczokształtnych. Wszystkie te zwierzęta dobrze sobie radzą w środowisku ubogim w tlen i ze zmieniającym się poziomem wody. Jako, że podobne zbiorniki występują też na innych obszarach Llanos de Moxos, autorzy badań uważają, że istniała tam szeroko zakrojona hodowla ryb, a ludzie mieli dostęp do ich mięsa przez cały rok. Na razie nie są znane szczegóły prowadzenia hodowli, ani czy techniki zmieniały się w zależności od ilości dostępnej wody. Sawanny, w przeciwieństwie do wielkich rzek Amazonii, to zupełnie odmienny habitat, w którym ludzie prawdopodobnie opracowali odmienne sposoby pozyskiwania ryb, stwierdzają autorzy badań. « powrót do artykułu
  24. Naukowcy z Uniwersytetu Jerzego Waszyngtona zaprezentowali całkowicie nowe podejście do leczenia wczesnej cukrzycy typu 2. Wykazali, że za pomocą terapii ultradźwiękowej można stymulować u myszy wydzielanie insuliny na żądanie. Wystawiając trzustkę na oddziaływanie pulsów ultradźwiękowych, zaobserwowano mierzalne wzrosty poziomu insuliny we krwi. Zespół ma zaprezentować uzyskane wyniki na dorocznej konferencji Amerykańskiego Towarzystwa Akustycznego w Louisville. Gdy poziom glukozy rośnie, np. po posiłku, komórki beta wysp trzustkowych nasilają produkcję insuliny. Na początkowych etapach rozwoju cukrzycy typu 2. komórki beta stają się jednak przeciążone, co wiąże się z akumulacją insuliny. By nie dopuścić, aby nagromadzenie hormonu zniszczyło komórki beta, można próbować wspomagać uwalnianie insuliny lekami. Tania Singh uważa, że chcąc uniknąć skutków ubocznych leków, w tym miejscu warto sięgnąć właśnie po ultradźwięki. Podczas testów po sesji ultradźwiękowej obserwowano znaczące wzrosty stężenia insuliny we krwi. W ramach przyszłych badań naukowcy chcą ocenić, czy terapia pulsami ultradźwiękowymi nie uszkadza trzustki i/lub okolicznych narządów. Co ciekawe, choć ekipa Singh zauważyła wzrost poziomu insuliny we krwi, nie towarzyszył temu spadek stężenia glukozy. Akademicy zamierzają się wkrótce zająć tą kwestią. Singh chce również rozszerzyć badania na większe zwierzęta. « powrót do artykułu
  25. Scharakteryzowanie i optymalizacja obliczeń kwantowych wykonywanych przez kubity, czyli podstawowe jednostki komputera kwantowego to zadanie, jakie postawili przed sobą polscy fizycy i informatycy, zrzeszeni w projekcie TEAM-NET, kierowanym przez prof. Marka Kusia. Rezultaty ich badań będą kolejną cegiełką dołożoną do budowy komputera kwantowego, nad którym usilnie pracują naukowcy i przedsiębiorstwa z całego świata. Na realizację projektu TEAM-NET uczeni otrzymali dofinansowanie od Fundacji na rzecz Nauki Polskiej, w wysokości ponad 17 mln zł. Czym jest komputer kwantowy i czym różni się od komputera klasycznego? We współcześnie używanych na co dzień komputerach dane są zapisywane w systemie binarnym czyli poprzez sekwencje bitów, z których każdy znajduje się w jednym z dwóch stanów: 0 lub 1. Grupy takich bitów są przesyłane między różnymi podzespołami jednego komputera lub też między różnymi komputerami w sieci. Co istotne, komputer klasyczny wykonuje operacje w określonej kolejności, jedna po drugiej, i nie jest w stanie wykonywać kilku czynności jednocześnie. Dlatego im bardziej złożone jest zadanie, tym dłużej trwa szukanie rozwiązań, a do rozwiązania wielu ze współczesnych problemów moc obliczeniowa klasycznych komputerów jest już wręcz niewystarczająca. Kilka sekund zamiast kilku lat dzięki kubitom Komputery kwantowe pozwolą rozwiązywać skomplikowane problemy z wielu dziedzin nauki i przemysłu dużo szybciej i efektywniej niż najlepsze komputery klasyczne. W ciągu kilka sekund potrafią one wykonać obliczenia, które komputerowi klasycznemu mogą zająć nawet kilka lat – tłumaczy prof. Centrum Fizyki Teoretycznej PAN w Warszawie, czyli ośrodka będącego liderem projektu TEAM-NET. A to dlatego, że w komputerach kwantowych informacje zapisywane są w kubitach (od angielskiego quantum bit). Kubit od zwykłego bitu różni się tym, że nie ma ustalonej wartości 0 lub 1, ale zgodnie z zasadami mechaniki kwantowej znajduje się w stanie pośrednim, nazywanym superpozycją. Oznacza to, że jednocześnie znajduje się i w stanie 0, i w stanie 1. A zatem, kubit niesie w sobie znacznie więcej informacji niż zero-jedynkowy bit. Na dodatek, kubity mogą być ze sobą splątane: dwa kubity to już cztery splątane ze sobą wartości, trzy kubity – osiem wartości, i tak dalej. Stanów pojedynczych kubitów  nie można traktować jako niezależnych, bo zmiana jednego wpływa na wszystkie pozostałe. Właśnie dzięki splątaniu kubitów, komputer kwantowy może wykonywać obliczenia na wszystkich wartościach jednocześnie, co daje mu potężną moc obliczeniową. Choć sprawa komplikuje się z uwagi na konieczność „odczytania” wyników takiego obliczenia, co nieuchronnie niszczy stan kwantowy. Komputer kwantowy, gdy już powstanie, pozwoli na błyskawiczne wyszukiwanie potrzebnych informacji w ogromnych ilościach danych oraz umożliwi przeprowadzanie najbardziej skomplikowanych, wielopłaszczyznowych symulacji z nieograniczoną liczbą czynników. Technologia ta z pewnością znajdzie zastosowanie w naukach o życiu, medycynie i przemyśle farmaceutycznym, gdzie posłuży do odkrywania nowych leków. Innym sektorem oczekującym na powstanie komputerów kwantowych jest bankowość i cała branża finansowa, która skorzysta m.in. na możliwości doskonałego symulowania zachowań giełdy. Kruchość kubitów W tej chwili nie możemy jednak określić, kiedy powstanie komputer kwantowy. Wciąż mierzymy się z wieloma bardzo poważnymi ograniczeniami i nie wiadomo, kiedy uda się je przezwyciężyć. Konstrukcja działającego komputera kwantowego jest niezwykle trudna choćby ze względu na nieunikniony wpływ szumu i dekoherencji układów kwantowych – podkreśla prof. Marek Kuś. Chodzi o to, że kubity są bardzo niestabilne i ekstremalnie wrażliwe na wpływ otoczenia. Nawet najdrobniejsze wahania temperatury, hałasu, ciśnienia czy pola magnetycznego mogą prowadzić do wybicia kubitów ze stanu współzależnych superpozycji, czyli do zjawiska określanego przez fizyków jako dekoherencja. Jeśli kubity nie utrzymują stanu superpozycji, dochodzi do błędów w obliczeniach, a im więcej kubitów połączymy, tym więcej takich błędów będzie generowanych. Obecnie kubity mogą utrzymać swój stan kwantowy tylko przez około 100 mikrosekund, zanim dojdzie do dekoherencji. Z tego powodu komputery kwantowe muszą znajdować się w specjalnie przygotowanym środowisku. Wymagają m.in. chłodzenia na poziomie temperatury bliskiej zera bezwzględnego oraz umieszczenia w wysokiej próżni, pod ciśnieniem 10 mld razy niższym niż ciśnienie atmosferyczne. Oznacza to, że komputery kwantowe szybko nie zagoszczą w naszych domach czy biurach. W niedalekiej przyszłości możemy się spodziewać natomiast urządzeń zbudowanych z niewielu niedoskonałych kubitów. Nasz projekt ma na celu scharakteryzowanie mocy obliczeniowej i zbadanie możliwych praktycznych zastosowań takich urządzeń. Skupiać się będziemy nie na budowie samego urządzenia, ale na przetestowaniu jego oprogramowania i scharakteryzowaniu algorytmów, które zoptymalizują jego działanie. Aby zrealizować ten cel, utworzymy sieć współpracujących ze sobą czterech grup badawczych, zajmujących się nowatorskimi aspektami obliczeń kwantowych: kwantowym uczeniem maszynowym, kontrolą złożonych układów kwantowych, kwantową korekcją błędów i problemem identyfikacji zasobów odpowiedzialnych za tzw. przyspieszenie kwantowe – precyzuje prof. Marek Kuś. W skład konsorcjum naukowego wejdą, oprócz Centrum Fizyki Teoretycznej PAN w Warszawie, także Wydział Nauk Fizyki, Astronomii i Informatyki Stosowanej Uniwersytetu Jagiellońskiego oraz Instytut Informatyki Teoretycznej i Stosowanej PAN w Gliwicach. O programie TEAM-NET Program TEAM-NET Fundacji na rzecz Nauki Polskiej pozwala na sfinansowanie interdyscyplinarnych badań naukowych, realizowanych przez sieć współpracujących zespołów badawczych, kierowanych przez wybitnych, doświadczonych naukowców. Celem tego programu jest, oprócz umożliwienia prowadzenia w Polsce nowatorskich badań naukowych, także wzmocnienie ponadregionalnej współpracy pomiędzy jednostkami naukowymi oraz budowanie kompetencji dotyczących wykorzystywania dostępnej infrastruktury i usług badawczych. Zgodnie z założeniami konkursowymi, budżet każdego zgłoszonego projektu badawczego może wynosić do 3,5 mln zł na zespół na 36 miesięcy. Finansowanie może być przyznane na okres od 36 do 48 miesięcy. Nabór wniosków do konkursu TEAM-NET był prowadzony w październiku 2018 r., a w marcu 2019 r. Fundacja na rzecz Nauki Polskiej ogłosiła jego wyniki. Do konkursu zgłoszono 39 projektów, z których po ocenie merytorycznej 11 otrzymało dofinansowanie, na łączną kwotę ponad 201 mln zł. Konkurs TEAM-NET jest realizowany przez FNP ze środków UE pochodzących z Europejskiego Funduszu Rozwoju Regionalnego w ramach Programu Operacyjnego Inteligentny Rozwój. « powrót do artykułu
×
×
  • Dodaj nową pozycję...