-
Liczba zawartości
37652 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
249
Zawartość dodana przez KopalniaWiedzy.pl
-
Od lat słyszymy, że ocieplenie klimatu czy topnienie lodowców zagrażają źródłom wody od których uzależniony jest byt miliardów ludzi. Indyjskie Narodowe Biuro Statystyki Kryminalnej (NCRB) poinformowało właśnie o znacznym wzroście liczby przestępstw związanych z konfliktami o wodę. Dochodzi do sporów, drobnych przestępstw, fizycznych starć i morderstw. W roku 2018 liczba takich przestępstw była niemal 2-krotnie większa niż rok wcześniej. Najwięcej sporów o wodę miało miejsce w stanach Maharashtra i Bihar, które w ostatnich latach zmagają się z ciężką suszą. Z najnowszego raportu NCRB wynika, że w 2018 roku zanotowano 838 przestępstw tego typu. Rok wcześniej były to 432 przestępstwa. W sporach o wodę życie straciły 93 osoby. Eksperci mówią, że spory toczą się pomiędzy społecznościami, wsiami i kastami. Gdy zmniejsza się dostępność wody, zaostrzają się konflikty, obejmują one całe społeczności, spierają się miasta z wsiami. Sytuacja w niektórych stanach była bardzo zła w 2018 roku, mówi Himanshu Thakkar, koordynator South Asia Network on Dams, Rivers and People. Częścią problemu jest złe zarządzanie zasobami. Indie maksymalnie eksploatują zasoby wód podziemnych. W kraju tym spod ziemi pobiera się tyle wody, co łącznie w USA i Chinach. Złe zarządzanie powoduje, że poziom wód gruntowych błyskawicznie spada. W 2018 roku opublikowano raport, z którego wynika, że jeśli nic się nie zmieni, to 21 miast, w tym Delhi, Bengaluru, Chennai i Hyderabad już w 2020 roku wyczerpie całe zapasy wód podziemnych, co bezpośrednio dotknie 100 milionów ludzi. W tym samym raporcie czytamy, że do roku 2030 zapotrzebowanie Indii na wodę będzie 2-krotnie większe niż zapewniają jej dostępne źródła. Setki milionów ludzi będą miały problem z dostępem do wody, a jej brak może przełożyć się na stratę 6% PKB. Z danych Banku Światowego dowiadujemy się, że dochodzi do szybkiego spadku odnawialnych zasobów wody pitnej w przeliczeniu na mieszkańca Ziemi. Jeszcze w 1960 roku na każdego człowieka przypadało 13 364 metry sześcienne odnawialnych zasobów wody pitnej. W roku 2014 było to już 5 932 m3. UNESCO szacuje, że w rozwijających się krajach Azji, Afryki i Ameryki Południowej przeciętne zużycie wody na głowę mieszkańca wynosi 50–100 litrów dziennie. W krajach rozwiniętych jest to około 10-krotnie więcej. Krajami o największych odnawialnych zasobach wody pitnej w przeliczeniu na mieszkańca są (dane dla roku 2017): Islandia (507 463 m3), Gujana (348 374 m3), Surinam (175 719 m3), Kongo (157 148 m3), Papua Nowa Gwinea (97 079 m3), Bhutan (96 582 m3), Gabon (81 975 m3), Kanada (79 238 m3), Norwegia (74 081 m3) oraz Wyspy Salomona (79 123 m3). W Indiach jest to 1427 m3. Polska znajduje się dopiero na 133. pozycji na świecie, a nasze zasoby na mieszkańca wynoszą 1585 m3. Pocieszający jest fakt, że wzrosły one z 1579 m3 w roku 2012 i jesteśmy jednym z niewielu krajów, gdzie zanotowano wzrost tych zasobów. Jednak w Europie mniej wody do dyspozycji mają tylko mieszkańcy Czech, Danii i Cypru. « powrót do artykułu
- 100 odpowiedzi
-
- przestępczość
- zasoby
-
(i 2 więcej)
Oznaczone tagami:
-
Latający robot z piórami gołębia zdradza ptasie tajemnice
KopalniaWiedzy.pl dodał temat w dziale Technologia
Robot z piórami gołębia to najnowsze dzieło naukowców z Uniwersytetu Stanforda. Korzysta ono z dodatkowego elementu, ułatwiającego ptakom latanie – możliwości manipulowania rozstawem piór i kształtem skrzydeł. David Lentink ze Stanforda przyglądał się sposobowi pracy skrzydeł, poruszając skrzydłami martwego gołębia. Zauważył, że najważniejszy dla zmiany kształtu skrzydeł są kąty poruszania się dwóch stawów: palca i nadgarstka. To dzięki ich zmianie sztywne pióra zmieniają kształt tak, że zmienia się cały układ skrzydeł, co znakomicie pomaga w kontroli lotu. Korzystając z tych doświadczeń Lentink wraz z zespołem zbudowali robota, którego wyposażyli w prawdziwe pióra gołębia. Robot to urządzenie badawcze. Dzięki niemu naukowcy z USA mogą prowadzić eksperymenty bez udziału zwierząt. Zresztą wielu testów i tak nie udało by się przeprowadzić wykorzystując zwierzęta. Na przykład uczeni zastanawiali się, czy gołąb może skręcać poruszając palcem tylko przy jednym skrzydle. Problem w tym, że nie wiem, jak wytresować ptaka, by poruszył tylko jednym palcem, a jestem bardzo dobry w tresurze ptaków, mówi Lentink, inżynier i biolog z Uniwersytetu Stanforda. Robotyczne skrzydła rozwiązują ten problem. Testy wykazały, że zgięcie tylko jednego z palców pozwala robotowi na wykonanie zakrętu, a to wskazuje, że ptaki również mogą tak robić. Uczeni przeprowadzili też próby chcąc się dowiedzieć, jak ptaki zapobiegają powstaniu zbyt dużych przerw pomiędzy rozłożonymi piórami. Pocierając jedno pióro o drugie zauważyli, że początkowo łatwo się one z siebie ześlizgują, by później się sczepić. Badania mikroskopowe wykazały, że na krawędziach piór znajdują się niewielkie haczyki zapobiegające ich zbytniemu rozłożeniu. Gdy pióra znowu się do siebie zbliżają, haczyki rozczepiają się. W tym tkwi ich tajemnica. Mają kierunkowe rzepy, które utrzymują pióra razem, mówi Lentink. Uczeni, aby potwierdzić swoje spostrzeżenia, odwrócili pióra i tak skonstruowane skrzydło umieścili w tunelu aerodynamicznym. Pęd powietrza utworzył takie przerwy między piórami, że wydajność skrzydła znacznie spadła. « powrót do artykułu -
W budownictwie od dawna wykorzystuje się materiały pochodzenia biologicznego, np. drewno. Gdy się ich używa, nie są już jednak żywe. A gdyby tak stworzyć żyjący budulec, który jest w stanie się rozrastać, a przy okazji ma mniejszy ślad węglowy? Naukowcy nie poprzestali na zadawaniu pytań i zabrali się do pracy, dzięki czemu uzyskali beton i cegły z bakteriami. Zespół z Uniwersytetu Kolorado w Boulder podkreśla, że skoro udało się utrzymać przy życiu pewną część bakterii, żyjące, i to dosłownie, budynki nie są wcale tylko i wyłącznie pieśnią przyszłości. Pewnego dnia takie struktury będą mogły, na przykład, same zasklepiać pęknięcia, usuwać z powietrza niebezpieczne toksyny, a nawet świecić w wybranym czasie. Na razie technologia znajduje się w powijakach, ale niewykluczone, że kiedyś żyjące materiały poprawią wydajność i ekologiczność produkcji materiałów budowlanych, a także pozwolą im wyczuwać i wchodzić w interakcje ze środowiskiem - podkreśla Chelsea Heveran. Jak dodaje Wil Srubar, obecnie wytworzenie cementu i betonu do konstruowania dróg, mostów, drapaczy chmur itp. generuje blisko 6% rocznej światowej emisji dwutlenku węgla. Wg Srubara, rozwiązaniem jest "zatrudnienie" bakterii. Amerykanie eksperymentowali z sinicami z rodzaju Synechococcus. W odpowiednich warunkach pochłaniają one CO2, który wspomaga ich wzrost, i wytwarzają węglan wapnia (CaCO3). Naukowcy wyjaśnili, w jaki sposób uzyskali LBMs (od ang. living building material, czyli żyjący materiał), na łamach pisma Matter. Na początku szczepili piasek żelatyną, pożywkami oraz bakteriami Synechococcus sp. PCC 7002. Wybrali właśnie żelatynę, bo temperatura jej topnienia i przejścia żelu w zol wynosi ok. 37°C, co oznacza, że jest kompatybilna z temperaturami, w jakich sinice mogą przeżyć. Poza tym, schnąc, żelatynowe rusztowania wzmacniają się na drodze sieciowania fizycznego. LBM trzeba schłodzić, by mogła się wytworzyć trójwymiarowa hydrożelowa sieć, wzmocniona biogenicznym CaCO3. Przypomina to nieco robienie chrupiących ryżowych słodyczy, gdy pianki marshmallow usztywnia się, dodając twarde drobinki. Akademicy stworzyli łuki, kostki o wymiarach 50x50x50 mm, które były w stanie utrzymać ciężar dorosłej osoby, i cegły wielkości pudełka po butach. Wszystkie były na początku zielone (sinice to fotosyntetyzujące bakterie), ale stopniowo brązowiały w miarę wysychania. Ich plusem, poza wspomnianym wcześniej wychwytem CO2, jest zdolność do regeneracji. Kiedy przetniemy cegłę na pół i uzupełnimy składniki odżywcze, piasek, żelatynę oraz ciepłą wodę, bakterie z oryginalnej części wrosną w dodany materiał. W ten sposób z każdej połówki odrośnie cała cegła. Wyliczenia pokazały, że w przypadku cegieł po 30 dniach żywotność zachowało 9-14% kolonii bakteryjnych. Gdy bakterie dodawano do betonu, by uzyskać samonaprawiające się materiały, wskaźnik przeżywalności wynosił poniżej 1%. Wiemy, że bakterie rosną w tempie wykładniczym. To coś innego niż, na przykład, drukowanie bloku w 3D lub formowanie cegły. Gdybyśmy mogli uzyskiwać nasze materiały [budowlane] na drodze biologicznej, również bylibyśmy w stanie produkować je w skali wykładniczej. Kolejnym krokiem ekipy jest analiza potencjalnych zastosowań platformy materiałowej. Można by dodawać bakterie o różnych właściwościach i uzyskiwać nowe materiały z funkcjami biologicznymi, np. wyczuwające i reagujące na toksyny w powietrzu. Budowanie w miejscach, gdzie zasoby są mocno ograniczone, np. na pustyni czy nawet na innej planecie, np. na Marsie? Czemu nie. W surowych środowiskach LBM będą się sprawować szczególnie dobrze, ponieważ do wzrostu wykorzystują światło słoneczne i potrzebują bardzo mało materiałów egzogennych. [...] Na Marsa nie zabierzemy ze sobą worka cementu. Kiedy wreszcie się tam wyprawimy, myślę, że naprawdę postawimy na biologię. Badania sfinansowała DARPA (Agencja Badawcza Zaawansowanych Projektów Obronnych). « powrót do artykułu
-
Amerykańscy urzędnicy zastanawiają się, czy wszcząć formalne dochodzenie w sprawie... samodzielnie przyspieszających samochodów Tesli. Do Narodowej Administracji Bezpieczeństwa Ruchu Drogowego (NHTSA) wpłynął wniosek o przyjrzenie się 500 000 pojazdów tej marki. Autorzy dokumentu proszą o zbadanie Model S z lat 2012–2019, Model X z lat 2016–2019 oraz Model 3 z lat 2018–2019. Powołują się przy tym na 127 skarg dotyczących 123 pojazdów, jakie wpłynęły do NHTSA. Nagłe niespodziewane przyspieszenia miały przyczynić się do 110 wypadków, w których rannych zostały 52 osoby. W wielu takich doniesieniach jest mowa o tym, że samochód nagle przyspieszał, gdy użytkownik próbował zaparkować w garażu lub na jezdni. W jednym przypadku właściciel Model S 85D z 2015 roku donosi, że wysiadł z samochodu, zamknął go, gdy nagle pojazd przyspieszył i uderzył w zaparkowany przed nim samochód. Z kolei kierowca z Pennsylwanii skarży się, że parkował pod szkołą, kiedy pojazd zaczął szybciej jechać, przejechał przez krawężnik i zatrzymał się na łańcuchu. Właścicielka tesli z Massachusetts opisuje, jak zbliżała się do swojego garażu, a samochód przyspieszył, przejechał przez zamknięte drzwi i zatrzymał sie na ścianie. To nie jedyne skargi na pojazdy Tesli. W maju ubiegłego roku Tesla wydała poprawkę do oprogramowania zarządzajęcego akumulatorami, gdyż w wyniku błędu istniało ryzyko ich pożaru. We wrześniu właściciele 2000 takich pojazdów złożyli wniosek, by Tesla wymieniła samochody, a nie ograniczała się do poprawki w oprogramowaniu. NHTSA wciąż rozważa ten wniosek. Ponadto w ubiegłym tygodniu NHTSA poinformowała, że prowdzi śledztwo w sprawie wypadku z 29 grudnia, kiedy to tesla wjechała w zaparkowany wóz strażacki. Śmierć poniósł pasażer samochodu. To 14. śledztwo prowadzone w ramach specjalnego programu NHTSA powołanego do badania wypadków mających miejsce, gdy włączony jest Autopilot lub inny zaawansowany mechanizm wspomagający kierowcę. « powrót do artykułu
-
Microsoft oznajmił, że ma zamiar nie tylko zredukować zredukować emisję węgla związaną ze swoją działalnością, ale usunie z atmosfery węgiel, który wyemitował w całej swojej historii. Koncern wyznaczył sobie dwa ambitne terminy. Do roku 2030 firma chce tk zmienić sposób swojego działania, że będzie więcej węgla wycofywała z atmosfery niż go emitowała, a do roku 2050 ma zamiar wycofać z atmosfery cały węgiel, jaki w związku z prowadzoną przez siebie działalnością wyemitowała od swojego powstania w 1975 roku. To zdecydowane przebicie zapowiedzi Amazona, który obiecał, że do roku 2040 stanie się firmą neutralną pod względem emisji węgla. "Podczas gdy cały świat potrzebuje zredukować emisję netto do zera, ci z nas, których stać na szybsze i bardziej ambitne działanie, powinni to zrobić. Dlatego dzisiaj ogłaszamy nowy plan zredukowania, a docelowo usunięcia z atmosfery, całej emisji powodowanej przez Microsoft", oświadczył prezes Brad Smith. Koncern oznajmił, że do 2030 roku o ponad połowę zmniejszy zarówno swoją własną emisję jak i całego swojego łańcucha dostaw. Koncern pomoże swoim dostawcom i innym partnerom w redukcji ich śladu węglowego, przeznaczy też miliard dolarów na rozwój technologii związanych z redukcją emisji węgla, jego przechwytywaniem i usuwaniem z atmosfery. Od przyszłego zaś roku będzie wymagał od swoich nowych partnerów, by wdrażali politykę redukcji emisji. Firma zapowiedziała też, że co roku będzie publikowała Environmental Sustainability Report, w którym szczegółowo przedstawi poziom swojej emisji i działania zmierzające do jej zmniejszenia. « powrót do artykułu
-
Jadalny znacznik wyeliminuje z rynku podróbki leków?
KopalniaWiedzy.pl dodał temat w dziale Medycyna
By zapobiec fałszowaniu leków, tabletkom czy kapsułkom nadaje się unikatowe kształty i kolory. Stosowane są też różne oznaczenia czy charakterystyczne opakowania. Nie na wiele się to jednak zdaje, bo zgodnie z oszacowaniami, sfałszowane leki stanowią co najmniej 10% globalnego rynku farmaceutycznego. Powodują one znaczne straty na rynku farmaceutycznym, a niekiedy zagrażają zdrowiu i życiu pacjentów. Naukowcy z Purdue University wpadli na pomysł, by jako zabezpieczenie wdrożyć jadalne fizycznie nieklonowalne funkcje PUF (ang. Physical Unclonable Function), które dotąd znaliśmy z zastosowań elektroniczno-informatycznych. Jadalne PUF zespołu Younga Kima są cienkimi filmami. Ponieważ są w 100% białkowe, można je spożywać jako część tabletki bądź kapsułki. PUF cechuje zdolność generowania innej odpowiedzi przy każdej stymulacji, przez co są one nieprzewidywalne i skrajnie trudne do duplikowania. Jak tłumaczą autorzy artykułu z pisma Nature Communications, nawet producent nie mógłby stworzyć drugiego identycznego znacznika PUF. Oświetlanie znacznika LED-ami generuje odpowiedzi, które są używane do wyekstrahowania klucza bezpieczeństwa. Źródłem entropii są losowo rozmieszczone fluorescencyjne mikrocząstki jedwabiu. Naukowcy wykorzystali 4 białka fluorescencyjne (eCFP, eGFP, eYFP i mKate2), które mają specyficzne szczyty wzbudzenia i emisji w paśmie światła widzialnego. Amerykanie posłużyli się jedwabiem z ekspresją białek fluorescencyjnych, produkowanym przez transgeniczne jedwabniki. Później sporządzano wodny roztwór fluorescencyjnej fibroiny, przeprowadzano liofilizację i delikatne rozdrabnianie do mikrocząstek o kształcie zeolitu (miały one rozmiar 99,3 ± 7,9 μm). W kolejnym etapie fluorescencyjne mikrocząstki rozsypywano po dużej płaskiej powierzchni i "zalewano" roztworem fibroiny. Całość musi schnąć w ciemności w temperaturze otoczenia. Na koniec wystarczy przezroczysty film o grubości 150 μm podzielić na kwadraty. Co ważne, proces da się przeskalować do masowej produkcji. Choć po regeneracji fluorescencyjnego jedwabiu poszczególnych rodzajów cząstek nie dało się, oczywiście, rozróżnić gołym okiem, zachowywały one swoje fluorescencyjne właściwości; po oświetleniu białym światłem eCFP, eGFP, eYFP i mKate2 dają niebieski, zielony, żółty i czerwony kolor. Obecnie ekipa pracuje nad aplikacją na smartfony dla aptek i konsumentów. Nasz pomysł jest taki, by wykorzystać smartfon do oświetlenia tagu i zrobienia mu zdjęcia. Następnie aplikacja identyfikuje lek jako autentyczny bądź podrobiony - opowiada dr Jung Woo Leem. Leem dodaje, że tag działa przez co najmniej 2 miesiące bez degradacji białek. Teraz Amerykanie muszą potwierdzić, że trwałość znacznika może dorównać okresowi przydatności do spożycia leku i że nie wpływa on na kluczowe składniki (substancje aktywne) lub ich moc. « powrót do artykułu -
Wirtualna rzeczywistość (VR), obecnie głównie kojarzona z rozrywką, wykorzystywana jest także coraz częściej w takich dziedzinach jak edukacja, medycyna czy kultura. Przykładem należącym do ostatniej kategorii jest aplikacja wirtualnej galerii sztuki stworzona przez studenta Akademii Górniczo-Hutniczej w ramach pracy inżynierskiej. Po założeniu gogli VR odbiorcy przenoszą się do stworzonej od zera, nieistniejącej w realnym świecie, wirtualnej galerii, gdzie na powierzchni 690 m2 zaprezentowano ponad 140 eksponatów. Zbiór składa się z rzeźb drewnianych i kamiennych, płaskorzeźb, obrazów oraz figurek porcelanowych. Jest to pierwsza w Polsce wirtualna wystawa, w której użytkownicy prócz swobodnego poruszania się po galerii, mogą dodatkowo wchodzić w interakcję z eksponatami – podnosić je, obracać, a także dowiedzieć się więcej dzięki nagraniom audio. Autorem wszystkich zaprezentowanych prac jest lokalny artysta i jednocześnie sąsiad studenta, Zygmunt Niewiadomski. Wykorzystanie wirtualnej rzeczywistości do prezentacji eksponatów takich jak rzeźby i obrazy zmienia całkowicie postrzeganie stacjonarnych muzeów i galerii sztuki. Zainteresowani nie muszą pokonywać setek kilometrów i ograniczać się do godzin otwarcia instytucji kulturalnych – mogą doświadczyć sztuki nie wychodząc z domu. Ponadto galerie i muzea ze względu na bezpieczeństwo dzieł sztuki tworzą fizyczne bariery oddzielające odbiorców od monumentów. Bardzo często odwiedzający nie mogą dotykać eksponatów. W wirtualnej galerii nie ma żadnych ograniczeń – odbiorcy mogą podnosić obiekty i oglądać je z każdej perspektywy. Modele 3D dostępne w galerii zostały odtworzone metodą fotogrametrii na podstawie zdjęć prawdziwych obiektów. W zależności od kształtu dzieła do jego odwzorowania wykorzystano od 80 do nawet 200 pojedynczych zdjęć. Modele 3D można obejrzeć na stronie internetowej projektu. Autorem nowatorskiej pracy inżynierskiej jest Grzegorz Lipski – student informatyki stosowanej na Wydziale Inżynierii Metali i Informatyki Przemysłowej. Aplikacja wirtualnej galerii sztuki została zaprojektowana na autonomiczne gogle VR Oculus Quest. Pliki instalacyjne wraz z instrukcją instalacji można pobrać bezpłatnie ze strony internetowej projektu: www.wirtualna-galeria.pl. « powrót do artykułu
-
- Akademia Górniczo-Hutnicza
- wirtualna galeria
-
(i 2 więcej)
Oznaczone tagami:
-
Nanocząstki tlenku miedzi nie tylko zabiły guzy nowotworowe u myszy i wzmocniły jej układ odpornościowy, ale również uniemożliwiły ponownie zaimplementowanie nowotworu u zwierząt. Autorzy nowych badań twierdzą, że ich technika może być przydatna w zwalczaniu 60% wszystkich nowotworów. Grupa ekspertów z Uniwersytetu Katolickiego w Leuven (KU Leuven), Uniwersytetu w Bremie, Instytutu Inżynierii Materiałowej im. Leibniza oraz Uniwersytetu w Ioanninie odkryła, że guzy nowotworowe są wrażliwe na działanie nanocząstek tlenku miedzi. Gdy związki takie znajdą się w organizmie, rozpuszczają się i stają się toksyczne. Jednak dzięki użyciu tlenku żelaza do stworzenia wspomnianych nanocząstek naukowcy byli w stanie kontrolować cały proces i wyeliminować komórki nowotworowe bez szkodzenia zdrowym tkankom. Każdy materiał w nanoskali ma nieco inne właściwości niż jego większa wersja. Jeśli byśmy połknęli duże ilości tlenków metali, byłoby to niebezpieczne, jednak w nanoskali w kontrolowanych, bezpiecznych i odpowiednich stężeniach mogą przynosić nam korzyści, mówi profesor Stefaan Soenen z KU Leuven. Początkowo nowotwór zaatakowano za pomocą samych nanocząstek, ale, zgodnie z przewidywaniami naukowców, choroba wróciła. Połączono więc nanocząstki i immunoterapię. Zauważyliśmy, że związki miedzi nie tylko bezpośrednio zabijały komórki guza, ale wspomagały układ odpornościowy w walce z nimi, opowiada doktor Bella B. Manshian. Nanocząstki całkowicie wyeliminowały z organizmów myszy guzy nowotworowe wywołane nowotworami płuc i jelita grubego. Co więcej jednak, gdy naukowcy wstrzyknęli myszom komórki nowotworowe obu typów, zostały one błyskawicznie unieszkodliwione przez układ odpornościowy. Naukowcy stwierdzają, że ich technika może być używana w przypadku około 60% nowotworów. Dotyczy to tych chorób, które zaczynają się od mutacji genu p53. To m.in. nowotwory piersi, płuc, jajników czy jelita grubego. Największą zaletą nowej techniki jest możliwość wyeliminowania chemioterapii z procesu leczenia. Pełny opis badań opublikowano na łamach Angewandte Chemie. « powrót do artykułu
- 2 odpowiedzi
-
- nowotwór
- nanocząstki
-
(i 2 więcej)
Oznaczone tagami:
-
Zdaniem autorów nowych badań oraz algorytmu sztucznej inteligencji, jedno z masowych ziemskich wymierań, wymieranie dewońskie, nigdy nie miało miejsca. Obecnie uważa się, że przed około 375 milionami lat oceany stały się toksyczne, co doprowadziło do masowego wymierania. Wyginęły wówczas m.in. niemal wszystkie trylobity. Jednak grupa naukowców twierdzi, że nie było to masowe wymieranie, a stopniowy proces rozciągnięty na 50 milionów lat. Wymieranie dewońskie nie miało miejsca. Ziemia doświadczyła powolnego spadku bioróżnorodności, co zresztą niektórzy naukowcy już wcześniej sugerowali, mówi Doug Erwin z Narodowego Muzeum Historii Naturalnej w Waszyngtonie. Badanie historii bioróżnorodności nie jest łatwym zadaniem. Większość gatunków istnieje zaledwie kilka milionów lat. Jeśli więc widzimy skamieniałości gatunku w różnych miejscach, to pochodzą one z mniej więcej tego samego okresu. Podczas dotychczasowych badań nad bioróżnorodnością skupiano się na okresach liczących około 10 milionów lat. Jednak Shuzhong Shen z Instytutu Geologii i Paleontologii w Nankinie oraz jego koledzy i współpracujący z nimi Erwin byli w stanie przeprowadzić badania, w czasie których przyjrzeli się okresom trwającym zaledwie 26 000 lat. Dokonali tego za pomocą opracowanych przed dekadą metod analizy statystycznej, które wykorzystali do analizy 100 000 rekordów dotyczących skamieniałości 11 000 gatunków morskich znalezionych w Chinach i Europie. Obliczenia były tak złożone, że naukowcy musieli opracować specjalny algorytm sztucnej inteligencji i uruchomić go na czwartym najpotężniejszym superkomputerze świata, Tianhe-2A. Badaniami objęto okres 300 milionów lat,od początku kambru po początek triasu. Jak mówią obrazowo uczeni, poprawienie rozdzielczości czasowej badań pozwoliło na przejście od stwierdzenia, że wszyscy ludzie żyjący w tym samym wieku byli sobie współcześni, po uznanie za współczesnych sobie tylko ludzi, żyjących w tym samym półroczu. Spadek bioróżnorodności w dewonie jest wciąż jasno widoczny, ale następował on przez cały późny dewon, a nie był pojedynczym skoncentrowanym wydarzeniem, mówi emerytowany paleontolog Richard Bambach, autor pracy naukowej z 2004 roku, w której argumentował, że w dewonie nie doszło do masowego wymierania. Pomysł, że na Ziemi doszło do 5 masowych wymierań pojawił się po raz pierwszy w 1982 roku. Od tamtego czasu autorzy różnych badań argumentowali, że wymierań było od 3 do 20. Nie istnieje formalna definicja masowego wymierania, jednak większość specjalistów zgadza się, że takim mianem należy określić znaczne zwiększenie liczby gatunków ginących w krótkim czasie. Na przykład w okresie wymierania permskiego większość gatunków wyginęła w ciągu 63 000 lat. W roku 2004 Bambach argumentował również, że nie było wymierania triasowego. Jednak od tamtej pory pojawiło się więcej dowodów, iż miało ono jednak miejsce. Bambach przyznaje, że w tej kwestii się mylił. Wszystko jednak wskazuje na to, że Ziemia doświadczyła czterech, a nie pięciu, okresów masowego wymierania. « powrót do artykułu
- 1 odpowiedź
-
- sztuczna inteligencja
- masowe wymieranie
-
(i 2 więcej)
Oznaczone tagami:
-
To niesamowite osiągnięcie może pomóc w uratowaniu nosorożca białego północnego. Przy życiu pozostały już tylko dwie samice z tego gatunku. Tymczasem naukowcom udało się właśnie uzyskać zdolny do przetrwania embrion. Powstał on z jaj pobranych od jednej z samic, które zapłodniono spermą od nieżyjących od dawna samców. Dysponujemy w tej chwili trzema takimi embrionami. Wszystkie zamrożono w ciekłym azocie, a w najbliższych miesiącach zostaną one zaimplantowane matce zastępczej – samicy nosorożca białego południowego. Dwie pozostałe przy życiu samice, Najin i Fatu, to matka i córka. Ostatni samiec tego gatunku, Sudan, zmarł w marcu 2018 roku. Najin i Fatu przebywają w kenijskim rezerwacie Ol Pejeta. Są tam przez 24 godziny na dobę pilnowane przez uzbrojonych strażników. Wszystkie trzy wspomniane embriony pobrano od 19-letniej Fatu. W najbliższym czasie zespół naukowy, w skład którego wchodzą specjaliści z Kenii, Niemiec, Włoch i Czech, pobierze też jaja od 30-letniej Najin. Procedura jest dobrze poznana, bezpieczna i można ją stosować dopóty, dopóki zwierzęta się nie zestarzeją. Celem uczonych jest odtworzenie stada składające się z co najmniej 5 osobników, które miałoby następnie powrócić do naturalnego habitatu. Nosorożcom zagrażają przede wszystkim kłusownicy, którzy zabijają te zwierzęta dla rogów. Mieszkańcy Azji są skłonni zapłacić za nie olbrzymie pieniądze, gdyż wierzą, że są one cudownym eliksirem na wiele przypadłości, od problemów z potencją, po nowotwory. Tymczasem właściwości rogów są takie, jak obciętych paznokci. « powrót do artykułu
-
- nosorożec biały północny
- embrion
-
(i 3 więcej)
Oznaczone tagami:
-
Jak wspomóc organizm, gdy prowadzi się mało aktywny tryb życia? Głowią się nad tym specjaliści z różnych dziedzin, a ostatnio coraz częściej przedstawiciele branży medyczno-żywieniowej. Batony prebiotyczne dla wykonujących pracę siedzącą i bułki błonnikowe, które pomagają osobom ze stłuszczeniem wątroby, to propozycje naukowców z Pomorskiego Uniwersytetu Medycznego (PUM). Co ważne, będzie je można osobiście przetestować, bo wkrótce powinny się znaleźć na sklepowych półkach. Zespół prof. Ewy Stachowskiej poszukuje metod wsparcia mikrobiomu jelitowego. Gdy mikrobiom lepiej funkcjonuje, lepiej działa układ pokarmowy. Może to także wpłynąć na poprawę nastroju. Postanowiliśmy zrobić coś dla osób, które mają problemy z zaparciami, a tym samym problemy z masą ciała. W oparciu o naszą recepturę lokalny wytwórca pieczywa, pan Jan Tabiński, przygotował batony, które zawierają tylko zdrowe elementy [np. rozpuszczalny błonnik roślinny o dużym stopniu lepkości] - powiedziała prof. Stachowska w wywiadzie udzielonym Polskiej Agencji Prasowej. Batony opracowano z myślą o ludziach z pracą siedzącą, np. urzędnikach czy kierowcach. Poprawa pracy jelit pojawia się naprawdę szybko, bo już po pierwszych tygodniach. Nawet teraz pacjenci mówią, że efekt się utrzymuje, mimo iż minęło 6-7 miesięcy od czasu, gdy codziennie jedli batony. Idea jest taka, aby ktoś kupił sobie zapas batonów na tydzień, odczuł efekt – a jeśli go nie ma, wydłużył ten okres do dwóch tygodni, a później znów odstawił je i zjadał po jednym batonie co dwa dni. Kolejnym plusem sięgania po batony jest spadek wagi. Podczas testów ludziom nie chciało się tak bardzo jeść, a dzięki temu po ok. 3 tygodniach wskazania wagi były o ok. 1 kg mniejsze. Na razie dostępny jest jeden smak, piernikowy, ale naukowcy podkreślają, że chcą też popracować nad innymi wersjami. Naturalne przyprawy mają działanie przeciwutleniające, a to dodatkowo wspiera mikroflorę jelitową. Bułki błonnikowe dla osób ze stłuszczeniem wątroby, które często cierpią na otyłość, mają z kolei smak żytniego pieczywa na zakwasie. One także zostały stworzone we współpracy z lokalnym producentem. Ludzie są przyzwyczajeni, lubią i chcą jeść dobrej jakości pieczywo. Trzeba więc było zaprojektować to tak, aby było wygodne. Choć naukowcy z PUM-u koncentrowali się na zmianie mikrobiomu jelitowego, skutkiem spożywania bułek była również utrata masy ciała. Efekt nas absolutnie zaskoczył. Nie spodziewaliśmy się, żeby funkcja wątroby poprawiła się szybciej niż po pół roku. Badanie stopnia stłuszczenia po dwóch miesiącach wskazało jednak, że poprawiły się parametry zwłóknienia i stłuszczenia wątroby. Co ważne, poprawiło się wytwarzanie krótkołańcuchowych kwasów tłuszczowych, które m.in. obniżają stężenie cholesterolu LDL i trójglicerydów we krwi czy zmniejszają pH okrężnicy, ograniczając patogenną florę jelitową. Bułki, ochrzczone uniwersyteckimi, będą objęte licencją. Twórcom zależy, by można je było kupić w jak największej liczbie piekarni. Zgodnie z zapowiedziami, batony także trafią na sklepowe półki. W lutym zadebiutują na arenie światowej, bo na Międzynarodowej Wystawie Własności Intelektualnej, Wynalazków i Innowacji IPITEx w Bangkoku. « powrót do artykułu
-
- batony prebiotyczne
- bułki błonnikowe
- (i 4 więcej)
-
Cyberprzestępcy otrzymali na talerzu dostęp do kilkuset tysięcy witryn wykorzystujących WordPressa. Wszystko przez dziurę w dodatkach InfiniteWP Client oraz WP Time Capsule. Oba pluginy padły ofiarą tej samej dziury, która pozwala na ominięcie procesu autoryzacji i daje napastnikowi dostęp do samego WordPressa i serwera. Jedyne, czego przestępca potrzebuje, by ominąć zabezpieczenia jest... znajomość loginu użytkownika WorPressa. Oba pluginy zawierają błędy logiczne, które pozwalaja na zalogowanie się do konta administratora bez znajomości hasła. Gdy zajrzymy na witrynę z dodatkami do WordPressa możemy przekonać się, że InfiniteWP Client jest wykorzystywany w ponad 300 000 aktywnych instalacji, a z WP Time Capsule korzysta kolejnych ponad 20 000 witryn. Można więc założyć, że w dziury zagrażają bezpieczeństwu ponad 300 000 witryn opartych na WordPressie. O istnieniu dziur twórcy dodatków zostali poinformowali 7 stycznia, dzień później udostępnili poprawioneich wersje, a dzisiaj publicznie poinformowano o dziurach. W przypadku InfiniteWP Client na atak narażone są wszystkie wersje dodatku wcześniejsze od 1.9.4.5. Dziura zagraża też WP Time Capsule wcześniejszym od 1.21.16. Użytkownicy wspomnianych dodatków powinni jak najszybciej zainstalować poprawione wersje. « powrót do artykułu
- 3 odpowiedzi
-
Latem 2016 r. 14-letnia dziś Angelina Sadownikowa z Jakucji znalazła na brzegu rzeki Tirechtjach (Тирехтях) w dole pozostawionym przez poszukiwaczy ciosów mamutów zmumifikowanego leminga sprzed ok. 41 tys. lat. Dziewczynka była wtedy z matką. Angelina, uczennica gimnazjum w Biełogorsku, zabrała leminga do miejscowego historyka i archeologa Prokopija Nogowitsyna. To on powiadomił o odkryciu profesorów Nikitę Sołomonowa i Wiaczesława Roznowa. Mumia została wysłana do Moskwy na badania. Datowanie radiowęglowe przeprowadzone przez rosyjsko-amerykański zespół wykazało, że znalezisko pochodzi z 41.305-41.885 cal BP (BP to skrót od Before Present, za teraźniejszość uznano rok 1950). Naukowcy podkreślają, że to pierwsze plejstoceńskie odkrycie zmarzniętej mumii przedstawiciela rodzaju Lemmus. Pod względem wielkości ciała i czaszki, długości dolnych siekaczy oraz budowy zębów trzonowych badany okaz silnie przypomina lemingi brunatne, dawniej zwane lemingami syberyjskimi. Analogiczne wyniki dały badania mitochondrialnego DNA. Paleontolodzy opowiadają, że sierść zachowała się na grzbiecie, brzuchu i na bokach, ale nie na głowie. Po stronie grzbietowej futro jest ciemnoszare, a na brzuchu i bokach szarożółte. Na plecach nie ma ciemnego pasa. Badanie rtg. wykazało, że kości, w tym czaszka, dobrze się zachowały. Kości udowe uległy złamaniu. Nie znaleziono narządów wewnętrznych. Naukowcy z zespołu Aleksieja Łopatina podkreślają, że odkrycie z okolic rzeki Tirechtjach ma duże znaczenie dla zrozumienia ewolucji ważnej grupy arktycznych ssaków. Wyniki badań ukazały się w piśmie Proceedings of the Russian Academy of Sciences (Доклады Академии наук). Znaleziska zmumifikowanych plejstoceńskich gryzoni w wiecznej zmarzlinie należą do rzadkości. Wcześniej w okolicach rzeki Elgi (Эльга) odkryto 3 mumie susłogonow arktycznych sprzed ok. 29,5 tys. lat, w dolinie Strumienia Surowego natrafiono na 5 mumii Mynomes (Vocalomys) miurus egorovi sprzed ok. 37 tys. lat, a nad rzeką Batagajką znaleziono mumię obrożnika sprzed ponad 50 tys. lat. Poza Jakucją wymieniane jest też odkrycie na Jukonie w Kanadzie mumii susłogona akrtycznego sprzed ponad 47 tys. lat. « powrót do artykułu
-
Zadebiutowała przeglądarka Microsoftu z silnikiem od Google'a
KopalniaWiedzy.pl dodał temat w dziale Technologia
Microsoft udostępnił właśnie gotową najnowszą wersję swojej przeglądarki Edge. Co interesujące, wzmacnia ona pozycję Google'a i wizję internetu propagowaną przez wyszukiwarkowego giganta. W nowym Edge'u zastosowano bowiem silnik Blink, wykorzystywany w przeglądarce Chrome. Internet Explorer, który w przeszłości dominował na rynku przeglądarek internetowych, z czasem stał się dla Microsoftu poważnym obciążeniem. Z jednej bowiem strony coraz bardziej odstawał od standardów nowoczesnej sieci, z drugiej zaś, koncern nie mógł go nagle porzucić lub radykalnie zmodernizować, gdyż zbyt wiele witryn i programów firm trzecich działało prawidłowo wyłącznie na starszych wersjach IE. Rozwój tego programu stał się więc bardzo uciążliwy, konieczne było zachowywanie wieloletniej kompatybilności wstecznej przy jednoczesnej próbie dostosowywanie IE do wymogów współczesności. Przeglądarka stawała się przez to coraz bardziej ociężała i pełna błędów, a jednocześnie coraz bardziej odstawała od konkurencji. Microsoft postanowił więc jednocześnie rozwijać kolejny projekt. Przeglądarka Edge zadebiutowała w 2015 roku, a jej silnikiem był Edge HTML. Przeglądarka była wyraźnie lepsza od IE, dorównywała produktom konkurencji, a w niektórych aspektach je przewyższała, jednak było już za późno. Klienci masowo odwrócili się od produktu Microsoftu i wybrali Firefoksa oraz Chrome'a. W końcu po trzech kolejnych latach koncern z Redmond doszedł do wniosku, że rozwijanie przeglądarki na własnym silniku mija się z celem i w grudniu 2018 roku ogłosił rozpoczęcie prac nad Edge'em z silnikiem Blink. Wczoraj koncern udostępnił gotową przeglądarkę. Nowy Microsoft Edge jest dostępny dla wszystkich wspieranych wersji Microsoft Windows oraz MacOS w ponad 90 wersjach językowych, oznajmił wiceprezes Microsoftu ds. korporacyjnych, Joe Belfiore. Najnowsza wersja przeglądarki nie jest obecnie włączona do systemu automatycznych aktualizacji, więc pobrać można ją jedynie ręcznie. Obecnie sytuacja wygląda zatem tak, że Microsoft wspiera pięć wersji Edge'a. Edycje oznaczone numerami wersji 41.16299 (z września 2017), 42.17124 (z kwietnia 2018), 44.17763 (z października 2018) oraz 44.18362 (z maja 2019) to Edge z silnikiem EdgeHTML. Z kolei najnowsza wersja przeglądarki Microsoftu, Edge 79.0.309 zadebiutowała wczoraj i korzysta z silnika Blink. Microsoft zapowiada, że rozwój EdgeHTML będzie podtrzymany na potrzeby Universal Windows Platform oraz że silnik ten będzie w pełni kompatybilny z silnikiem Blink. Obecnie na rynku przeglądarek internetowych dla komputerów stacjonarnych zdecydowanie dominuje Chrome, którego udziały sięgają 67,28%. Na drugim miejscu znajdziemy Firefoksa (9%), na trzecim Internet Explorera (7,42%), a Edge znajduje się na czwartej pozycji z udziałami 5,56%. Na rynku mobilnym przeglądarki Microsoftu mają łącznie 0,05% udziałów i zajmują 13. oraz 15. pozycję. Już wcześniej ambicję rozwijania własnego silnika porzuciły Opera, Samsung, Brave, Vivaldi i inni. Dołączenie do tego grona Microsoftu tylko wzmacnia pozycję Google'a względem wciąż jeszcze niezależnych silników wykorzystywanych przez Firefoksa i Safari. Zdecydowana większość internautów używa już Chrome'a lub silnika Chrome'a i nie zauważa większych problemów z kompatybilnością. Czym więc Microsoft chce zachęcić ich do korzystania z Edge'a? Koncern podkreśla dwie cechy: produktywność i prywatność. W zakresie produktywności użytkowników mają przyciągnąć narzędzia takie jak Collections, które pozwalają na zebranie z wielu witryn informacji na konkretny temat. Jeśli zaś chodzi o prywatność to koncern z Redmond próbuje blokować śledzenie użytkowników przez witryny. To podejście podobne do stosowanego przez Mozillę w Firefoksie. Google pozostaje tutaj nieco z tyłu, uważając, że zbyt restrykcyjne blokowanie zagraża rozwojowi sieci, gdyż pozbawia dochodów przede wszystkim małe witryny, służąc wielkim firmom, które są w stanie samodzielnie rozwijać technologie omijające blokady stosowane w przeglądarkach. Chociaż i w tym zakresie wyszukiwarkowy koncern zmienia stanowisko i zapowiada, że w ciągu dwóch lat do Chrome'a trafią bardziej restrykcyjne mechanizmy kontroli prywatności. Na razie Microsoft kieruje nowego Edge'a przede wszystkim do użytkowników biznesowych, gdzie potrzebna jest dobra integracja przeglądarki z narzędziami do zarządzania oraz kompatybilność z IE. Edge zawiera też ułatwienia dla użytkowników MS Office'a czy Binga. Jednak w ciągu najbliższych 2-3 tygodni koncern zacznie coraz szerzej propagować Edge'a wśród użytkowników indywitualnych, powoli też przeglądarka z nowym silnikiem będzie trafiała do Windows Update. Ma temu towarzyszyć rozpisana na wiele miesięcy kampania informacyjna, gdyż większość internautów nie wie o przebudowie Edge'a i nie rozpozna nowej ikon przeglądarki. Historia Internet Explorera, Edge'a i Edge'a z silnikiem Chrome'a dobrze obrazują ewolucję rynku i samego Microsoftu, który w przeszłości dominował na rynku przeglądarek i w dużej mierze decydował, jak wygląda internet, a teraz pogodzony z wieloplatformową rzeczywistością współczesnego świata IT stosuje rozwiązania konkurencji i dba o interoperacyjność. « powrót do artykułu- 1 odpowiedź
-
- MS Edge
- przeglądarka
- (i 4 więcej)
-
Na początku stycznia Departament Energii USA poinformował o wybraniu lokalizacji dla nowego potężnego urządzenia badawczego fizyki wysokich energii. Zderzacz Elektron-Jon (EIC) ma powstać w Brookhaven National Laboratory (NY) kosztem ok. 2 mld. dolarów. Dwa przeciwbieżne akceleratory zderzać będą elektrony z protonami lub z jonami atomowymi, z możliwością polaryzacji obu wiązek. Program badawczy planowanych eksperymentów współtworzą naukowcy z NCBJ. Nowe urządzenie pozwoli na lepsze zrozumienie budowy najmniejszych cegiełek materii i oddziaływań, dzięki którym ona istnieje - wyjaśnia profesor Lech Szymanowski z Narodowego Centrum Badań Jądrowych (NCBJ). Fizycy na całym świecie przygotowują program badawczy EIC i pracują nad optymalizacją projektu akceleratorów i eksperymentów korzystających z ich wiązek. Wśród badaczy przygotowujących nowe eksperymenty jest m.in. polska grupa fizyków teoretyków z Departamentu Badań Podstawowych NCBJ. Doktorzy Paweł Sznajder i Jakub Wagner wraz z kolegami z francuskiego CEA przygotowali platformę obliczeniową PARTONS, pozwalającą na generowanie przewidywań dla EIC w oparciu o istniejącą wiedzę teoretyczną na temat oddziaływań silnych. Wyniki uzyskane dzięki tej platformie oraz dzięki technikom obliczeniowym takim jak sieci neuronowe i algorytm genetyczny pozwalają na tworzenie precyzyjnych przewidywań dla EIC, ale także na ocenę jego oczekiwanego wpływu na zrozumienie struktury materii - opisuje dr Sznajder. Niezwykła precyzja planowanych eksperymentów po raz pierwszy umożliwi stworzenie trójwymiarowych, tomograficznych obrazów wnętrza protonu. Przygotowane przez nas narzędzie jest unikalne - uzupełnia dr Wagner. Udało nam się uzyskać i opublikować już kilka prac z pierwszymi wynikami, które powinny ułatwić analizę teoretyczną danych uzyskanych w EIC. Materia jądrowa nadal nie jest dokładnie poznana, a oddziaływania w niej zachodzące potrafimy opisywać jedynie w dużym przybliżeniu - przekonuje dr Tolga Altinoluk, realizujący w NCBJ grant Unii Europejskiej dotyczący fizyki ciężkich jonów w EIC. Zderzenia z użyciem ciężkich jonów umożliwiają badanie nowych stanów materii, o niespotykanej dotychczas gęstości gluonów - cząstek przenoszących oddziaływania silne, odpowiedzialnych za istnienie m.in. protonu. Badania teoretyczne oddziaływań silnych na najbardziej elementarnym poziomie mają w NCBJ wieloletnią tradycję, a nasi naukowcy należą do grona światowych ekspertów w tej dziedzinie. W 2021 roku instytut wraz z Uniwersytetem Warszawskim będzie organizować międzynarodowe spotkanie fizyków pracujących nad EIC, goszczące kilkuset najwybitniejszych specjalistów z całego świata. Więcej na temat projektu EIC można przeczytać w informacji na stronie BNL « powrót do artykułu
- 10 odpowiedzi
-
- zderzacz elektron-jon
- EIC
-
(i 5 więcej)
Oznaczone tagami:
-
Australijscy strażacy uratowali ostatnie na świecie dzikie stanowisko wolemii (Wollemia nobilis). David Crust z National Parks and Wildlife Service opowiada, że strażacy dostali się tam z helikoptera. Zainstalowali system irygacyjny. Wolemie, o który mowa, rosną w dolinie w Górach Błękitnych. Za pomocą systemu irygacyjnego w miarę przybliżania się ognia można było codziennie dostarczać wodę i zapewniać drzewom wilgoć. Dodatkowo na froncie pożaru zrzucano z samolotów środki opóźniające palenie. Wolemia szlachetna jest szczególnie ważnym gatunkiem i fakt, że to jedyne miejsce na świecie, gdzie występuje, w dodatku w tak małej liczbie, ma naprawdę duże znaczenie - podkreśla Crust. Matt Kean, minister środowiska Nowej Południowej Walii, powiedział, że operacja ocalenia stanowiska się powiodła, choć niektóre z drzew zostały osmalone. Wolemie przeżyły dinozaury, więc gdy zorientowaliśmy się, że ogień się przybliża, zdaliśmy sobie sprawę, że musimy zrobić wszystko, by je ocalić. Gatunek odkryto w 1994 roku w Parku Narodowym Wollemi (Nowa Południowa Walia). Wcześniej rośliny o podobnych cechach morfologicznych były znane botanikom ze skamieniałości pochodzących sprzed dziesiątków milionów lat. Ogień, który zagrażał stanowisku, opanowano w tym tygodniu. Spłonęło ponad 510 tys. ha lasów. Niestety, pożar zniszczył 90% 5000-ha Parku Narodowego Wollemi. Dokładna lokalizacja stanowiska jest pilnie strzeżoną tajemnicą; w ten sposób władzom łatwiej zapewnić im ochronę. « powrót do artykułu
-
- wolemia szlachetna
- stanowisko
-
(i 3 więcej)
Oznaczone tagami:
-
Rok 2019 był drugim najcieplejszym rokiem od czasu rozpoczęcia regularnych pomiarów w 1880 roku, a miniona dekada był najgorętszą od 140 lat. Dotychczas najcieplejszym rokiem w historii pomiarów był 2016, a ostatnich pięć lat było najgorętszymi, od kiedy ludzkość regularnie mierzy temperaturę na Ziemi. Jak poinformowali specjaliści z NASA, rok 2019 był o 0,98 stopnia Celsjusza cieplejszy niż średnia z lat 1951–1980. Od lat 80. XIX wieku średnie temperatury na Ziemi wzrosły o około 1,1 stopnia Celsjusza w porównaniu z epoką preindustrialną. Dla porównania, w czasach epoki lodowej temperatury były o około 5,5 stopnia Celsjusza niższe niż bezpośrednio przed rewolucją przemysłową. O ile więc w okresie 10 000 lat pomiędzy epoką lodową z rewolucją przemysłową średni temperatury na Ziemi zwiększyły się o 5,5 stopnia Celsjusza, to w ciagu ostatnich 140 lat wzrosły one o 1,1 stopień Celsjusza. Fakt, że zakończyła się najbardziej gorąca znana nam dekada potwierdzają niezależnie od siebie NASA, NOAA, Berkeley Earth, Met Office czy Copernicus Climate Change Service. Ranking pięciu najgorętszych lat w historii pomiarów wygląda następująco: 2016 (+0,94 stopnia Celsjusza względem okresu referencyjnego), 2019 (+0,93), 2015 (+0,90), 2017 (+0,84), 2018 (+0,77). Lata 2010–2019 były o 0,753 stopnia Celsjusza cieplejsze od średniej z okresu referencyjnego (1951-1980) i o 0,24 stopnia Celsjusza cieplejsze od dekady wcześniejszej. « powrót do artykułu
- 2 odpowiedzi
-
- temperatura
- zmiana klimatu
-
(i 1 więcej)
Oznaczone tagami:
-
Pomiędzy latem 2015 a wiosną 2016 roku między Alaską a Kalifornią ocean wyrzucił na brzeg około 62 000 martwych nurzyków zwyczajnych. Większość z nich wykazywała oznaki śmierci głodowej. Gdy naukowcy zaczęli temu przyglądać i ekstrapolowali liczbę martwych ptaków na cały obszar, stwierdzili, że we wspomnianym okresie musiało zginąć około miliona ptaków. Rodziło się więc pytanie, w jaki sposób milion ptaków mogło zginąć mniej więcej w tym samym czasie na przestrzeni 6000 kilometrów. I co było przyczyną ich śmierci, mówi John Piatt z US Geological Survey. Nurzyki ginęły już masowo w przeszłości, ale zjawisko to obserwowano tylko lokalnie i na mniejszą skalę. Tymczasem to, co zauważono w latach 2015-2016 było tym bardziej niezwykłe, że ptaki te są dobrze przystosowane do swojego środowiska. Potrafią głęboko nurkować by zdobywać ryby, będące głównym źródłem ich pożywienia. Po kilku latach badań ptaków, temperatury wody i danych z połowów Piatt i jego zespół doszli do wniosku, że nurzyki zabiła... wysoka temperatura wody i wywołana nią konkurencja ze strony innych drapieżników. Pomiędzy końcem roku 2013 a rokiem 2016 u zachodnich wybrzeży Ameryki Północnej woda miała rekordowo wysoką temperaturę. W takiej wodzie wiele zmiennocieplnych drapieżników, jak na przykład dorsz, muszą jeść więcej, by utrzymać prawidłową temperaturę ciała. Dorsze mają jednak nad nurzykami przewagę. Ptaki muszą bowiem zjeść każdego dnia pokarm o wadze odpowiadającej połowy masy ich ciała i giną po 3–5 dniach bez pożywienia. Tymczasem dorszowi wystarczy, że w ciągu dnia zje pożywienie o masie 1% masy jego ciała. Dorszom więc łatwiej się pożywić, ale gdy zjadają więcej ryb, mniej i pozostaje dla nurzyków, które są bardziej wrażliwe na niedostatki pokarmu. To jedyne logiczne wyjaśnienie śmierci tak wielu nurzyków na tak dużym obszarze w tak krótkim okresie. Tym bardziej, że Piatt wykluczył, iż śmierć ptaków spowodowały zakwity toksycznych glonów. Badania padłych ptaków wykazały bowiem, że ilość toksyn w ich organizmach jest niższa niż podczas wcześniejszych pomorów wywoływanych właśnie przez glony. Problem może stanowić to, że fale upałów i obszary gorącej wody mają pojawiać się coraz częściej. Już zresztą pojawiły się informacje wskazujące, na ponowne formowanie się gorącego bloba u zachodnich wybrzeży Ameryki Północnej. Ma on jednak znacznie mniejszy rozmiar, więc jego wpływ będzie też mniejszy. Piatt mówi, że nurzyki nie są zagrożone wyginięciem, ale populacja będzie odradzała się przez dziesięciolecia, gdyż proces ten będą spowalniały kolejne wydarzenia tego typu. « powrót do artykułu
-
- nurzyk zwyczajny
- ryba
-
(i 4 więcej)
Oznaczone tagami:
-
Ledwie 2 miesiące temu informowaliśmy o rekordowej powodzi w Wenecji. Tym razem miasto ma inny problem – wyjątkowo niski stan wód. Tak niski, że po wielu kanałach nie da się pływać. W pewnym momencie poziom wody był nawet 45 centymetrów poniżej poziomu morza. Niski poziom wody zdarza się w Wenecji, jednak jest to zjawisko wyjątkowe. To jednak poważny problem dla miasta. Już po listopadowej powodzi rezerwacje w hotelach spadły o kilkadziesiąt punktów procentowych. Wyschnięcie kanałów i krążące w internecie zdjęcia słynnych gondoli spoczywających w mule z pewnością nie pomogą w ponownym przyciągnięciu turystów. Powódź z listopada przyniosła olbrzymie straty. Arcybiskup Wenecji, Francesco Moraglia, poinformował, że w Bazylice Św. Marka doszło do zniszczeń w dolnej części. Kościół został bowiem zalany. Zdarzyło się to dopiero po raz 6. od 1200 lat. Powódź zabiła 2 osoby i zalała 80% miasta. Straty oceniono na ponad miliard euro. Teraz mamy do czynienia z wręcz przeciwną sytuacją. Na szczęście obecnie brak doniesień o jakichkolwiek stratach czy zniszczeniach. « powrót do artykułu
-
Po raz pierwszy narodowe amerykańskie obserwatorium astronomiczne zostało nazwane imieniem kobiety. Large Synoptic SurveyTelescope (LSST) zostało przemianowane na Vera C. Rubin Observatory (VRO). Nowe obserwatorium ma zostać uruchomione na szczycie Cerro Pachón w Chile w październiku 2021 roku, a rok później rozpocznie regularne badania naukowe. VRO będzie wyposażone w najpotężniejszy aparat cyfrowy w dziejach, ważące trzy tony urządzenie o rozdzielczości 3,2 gigapiksela. Dzięki niej możliwe będzie zmapowanie co kilka dni całego południowego nieboskłonu. Eksperci oceniają, że w ciągu 10-letniej pracy VRO odkryje i skataloguje dziesiątki miliardów obiektów. Naukowcy, którzy z niecierpliwością czekają na uruchomienie VRO chcą badać za jego pomocą ciemną materię. Tymczasem to właśnie pionierskie badania Rubin z lat 70. dostarczyły pierwszych dowodów na istnienie ciemnej materii. To m.in. jej prace uświadomiły naukowcom, że we wszechświecie wcale nie dominuje materia widzialna. Rubin zasłużyła sobie na uznanie ciężką pracą. W 1965 roku stała się pierwszą kobietą, która otrzymała zgodę na korzystanie z Palomar Observatory, posiadające wówczas jedne z najbardziej zaawansowanych teleskopów. Już w pierwszych latach swojej pracy zaczęła zdobywać dowody na istnienie ciemnej materii. Jej prace "były jednymi z najważniejszych odkryć naukowych ubiegłego wieku, nie tylko na polu astronomii, ale również na polu fizyki", mówi dyrektor Vera C. Rubin Observatory, Steve Kahn. Rubin była kilkukrotnie nominowana do Nagrody Nobla, ale nigdy jej nie zdobyła. Zmarła w 2016 roku. VRO będzie badał nie tylko ciemną materię. Obserwatorium będzie śledziło też asteroidy bliskie Ziemi, poszukiwało obiektów międzygwiezdnych i mapowało Drogę Mleczną. « powrót do artykułu
-
- obserwatorium
- Vera C. Rubin
-
(i 2 więcej)
Oznaczone tagami:
-
Podczas prac renowacyjnych w Katedrze Świętego Szczepana w Wiedniu w części pełniącej dziś funkcje sklepiku z pamiątkami odkryto nieznane wcześniej malowidło, które mogło wyjść spod pędzla samego Albrechta Dürera. W centrum tryptyku znajduje się święty Leopold III, patron Austrii, a po jego bokach święta Katarzyna i święta Małgorzata. Pod nimi widnieje element przypominający predellę. Eksperci są szczególnie zainteresowani podmalunkami świętych Katarzyny i Małgorzaty, wykonanymi na świeżym tynku ok. 1505 r. Wg oświadczenia katedry, które zacytował Martin Bailey z Art Newspaper, "ich autorem jest bez wątpienia ktoś z kręgu Dürera". Specjalista od Dürera, Erwin Pokorny, idzie o krok dalej, twierdząc, że to sam Dürer. "Żaden z asystentów czy uczniów Dürera nie był w stanie uzyskać podmalunku tej jakości". Dzieło z katedry mogło zostać zamówione przez króla rzymskiego Maksymiliana I Habsburga. Historyk sztuki Michael Rainer powiedział wiedeńskiemu dziennikowi Die Presse, że w XVII-wiecznej biografii Dürera mówi się o malowidle naściennym zamówionym przez cesarza, ale nie zachowały się inne zapiski na ten temat. Kilka lat po wykonaniu podmalunku Maksymilian I mianował Dürera nadwornym malarzem. Jeśli to rzeczywiście Dürer zaczął tryptyk, nie skończył go z nieznanego powodu. Święty Leopold i predella zostały wykonane przez innego artystę w drugiej dekadzie XVI w. Wg Baileya, kolorową farbę nałożono bowiem nieco później. Najnowsze odkrycie uzupełnia też biografię Dürera oraz to, co wiemy o historii sztuki. Wiadomo, że artysta dwukrotnie podróżował do Włoch. Znamy też jego dobrze udokumentowaną podróż do Holandii. Jednak dotychczas nie mieliśmy żadnych sygnałów, by kiedykolwiek odwiedził Wiedeń. To zaś każe zadać pytanie, jak sztuka Wiednia wpłynęła na Dürera i jak Dürer wpłynął na wiedeńskich artystów. Inne pytanie brzmi, po co miałby się tam wybierać. Specjaliści mówią, że mógł się tam zatrzymać podczas podróży z Norymbergii do Wenecji. Niewykluczone też, że pojechał tam specjalnie, by odwiedzić swojego przyjaciela Conrada Celtisa. Wiedeńskie znalezisko jest tym bardziej ekscytujące, że to zaledwie drugi znany naścienny malunek mistrza. Wiemy bowiem, że zaprojektował malunki – wykonane przez innych artystów – które zdobiły ściany norymberskiego ratusza. Dzieła te zostały zniszczone wraz z ratuszem w czasie II wojny światowej. Otwartym pytaniem pozostaje, kiedy Dürer był w Wiedniu. « powrót do artykułu
-
- Albrecht Dürer
- Wiedeń
-
(i 2 więcej)
Oznaczone tagami:
-
Diego, żółw który uratował swój podgatunek, zostanie wpuszczony na wolność. Liczący obecnie około 100 lat samiec jest przodkiem około 40% z liczącej ponad 2000 osobników populacji żółwi słoniowych z Españoli (Chelonoidis hoodensis). Właśnie ogłoszono, że zakończył on swoją misję i może odzyskać wolność. Żółwie słoniowe z wyspy Española żyją od 150 do 200 lat. W porze deszczowej żywią się trawą i liśćmi, a w porze suchej kaktusami. Wg Gibbsa, przed przybyciem tu ludzi populacja Ch. hoodensis liczyła 5-10 tys. osobników. Na całym archipelagu Galapagos żyło ponad 250 000 wielkich żółwi. Znamy 15 ich podgatunków, z czego 2 ostatnio wyginęły. W XVIII i XIX w. na żółwie polowali bukanierzy, wielorybnicy i inni ludzie morza - wyjaśnia Linda Cayot, herpetolog będąca doradcą naukowym Galapagos Conservancy. Żółwie brano żywcem i umieszczano w ładowni, zdobywając w ten sposób świeże mięso na długie podróże. [Dużo wyjaśnia fakt, że] żółwie mogą przeżyć nawet rok bez dostępu do pożywienia czy wody. W latach 60. na Españoli żyło tylko 14 Ch. hoodensis: 12 samic i 2 samce. Wszystkie zabrano do hodowli, a w San Diego znaleziono trzeciego samca. Tym właśnie trzecim samcem był Diego, którego przywieziono w latach 60. na Galapagos, by wziął udział w programie odtworzenia gatunku. Jego wielki apetyt seksualny okazał się niezwykle pomocny. Te 15 wspomnianych żółwi dało początek obecnej populacji. Na Españoli wypuściliśmy około 1800 żółwi i szacujemy, że dzięki naturalnej reprodukcji, populacja liczy obecnie około 2000 sztuk, mówi Jorge Carrion, dyrektor Parku Narodowego Galapagos. « powrót do artykułu
- 1 odpowiedź
-
- Diego
- Chelonoidis hoodensis
-
(i 3 więcej)
Oznaczone tagami:
-
Nowo odkryty mechanizm pozwala zapobiegać i usuwać otyłość
KopalniaWiedzy.pl dodał temat w dziale Zdrowie i uroda
Amerykańscy naukowcy odkryli, że receptor węglowodorów aromatycznych (ang. aryl hydrocarbon receptor, AHR), który znajduje się w niemal wszystkich komórkach i jest aktywowany przez wielopierścieniowe związki organiczne, takie jak dioksyny i ich pochodne, odgrywa ważną rolę również w metabolizmie. Eksperymenty na myszach pokazały, że blokowanie AHR nie tylko zapobiegało otyłości, ale i ją odwracało. Ustalenia zespołu z Centrum Medycznego Dartmouth–Hitchcock są bardzo istotne, zważywszy że otyłość to czynnik ryzyka różnych nowotworów, np. raka piersi. Wyniki badań ukazały się w International Journal of Obesity. Przeprowadziliśmy badania, w których wykazaliśmy, że gdy do wysokotłuszczowej paszy dodawano blokujący receptory AHR lek aNF (a-naftoflawon), myszy nie stawały się grubsze od gryzoni żywionych niskotłuszczową karmą kontrolną. Po takim samym okresie zwierzęta spożywające wysokotłuszczową karmę bez aNF stawały się bardzo otyłe. Nie wykazano skutków ubocznych leku - opowiada dr Craig Tomlinson. Później specjaliści zadali sobie pytanie, czy blokując receptor AHR za pomocą aNF, można nie tylko zapobiegać otyłości, ale i ją likwidować. By to sprawdzić, pozwoliliśmy, by myszy przytyły na wysokotłuszczowej diecie zachodniej, a następnie połowę gryzoni "przestawiliśmy" na wysokotłuszczową karmę z blokerem AHR. Na przestrzeni kolejnych tygodni myszy z tej podgrupy schudły, osiągając wagę zwierząt jedzących karmę niskotłuszczową. Reszta zwierząt stała się otyła. Ponownie nie zaobserwowano skutków ubocznych. Koniec końców Amerykanie postanowili zbadać mechanizmy stojące za zaobserwowanymi zjawiskami. Wiedząc, że AHR reguluje geny kluczowe dla metabolizmu tłuszczu, ekipa zaobserwowała, że gdy receptor węglowodorów aromatycznych zostaje zablokowany w komórkach wątroby i adipocytach, nie udaje mu się zwiększyć ekspresji genów istotnych dla magazynowania i syntezy tłuszczów. Bardzo mało badań, jeśli w ogóle jakieś, wykazało, że otyłość można odwrócić za pomocą farmakoterapii [...]. Obecnie ekipa Tomlinsona poszukuje odpowiedzi na kilka pytań. Amerykanie próbują np. ustalić, jakie składniki pokarmowe aktywują AHR. Badają też rolę mikrobiomu w odniesieniu do AHR i otyłości. Co najważniejsze, rozpoczęły się testy kliniczne, które mają pokazać, czy AHR może być celem terapeutycznym dla zmniejszenia otyłości u ludzi. « powrót do artykułu- 2 odpowiedzi
-
- otyłość
- zapobieganie
-
(i 5 więcej)
Oznaczone tagami:
-
Sąd Najwyższy USA zajmie się kwestią patentów na oprogramowanie
KopalniaWiedzy.pl dodał temat w dziale Ciekawostki
Amerykańscy giganci IT zwierają szyki przed marcowym posiedzeniem Sądu Najwyższego USA, który rozstrzygnie spór dotyczący kwestii patentowania oprogramowania i zasady fair use. Wyrok może mieć olbrzymie znaczenie dla światowego przemysłu nowoczesnych technologii. Sprawa sięga roku 2010 i dotyczy sporu pomiędzy Google'em a Oracle'em. W ciągu zaledwie tygodnia po tym, jak Google przesłało swoje stanowisko w tej sprawie, do Sądu Najwyższego zgłosiło się 21 podmiotów, chcących wystąpić jako amicus curiae. Termin ten określa osobę lub inny podmiot, który nie jest stroną w postępowaniu sądowym, ale dobrowolnie z własnej inicjatywy oferuje sądowi własną opinię prawną. Sąd nie ma ani obowiązku dopuszczenia takiej opinii, ani – jeśli nawet ją dopuści – jej uwzględnienia. We wspomnianej sprawie większość amici curiae wspiera stanowisko Google'a. Wyszukiwarkowy gigant może liczyć m.in. na wsparcie IBM-a, Microsoftu, Mozilli, organizacji biznesowych czy środowisk naukowych. Już w pierwszym zdaniu opinii wysłanej przez IBM-a czytamy, że interfejsy komputerowe nie podlegają prawom autorskim. Z kolei Microsoft argumentuje, że Sąd Najwyższy powinien przywrócić obalony w apelacji wyrok sądu niższej instancji, który uznał, że Google miał prawo na zasadach fair use, wykorzystać chronione prawem autorskim API Javy. W innych opiniach stwierdzono, że jeśli sąd uzna stanowisko Oracle'a, będzie miało to niekorzystny wpływ nie tylko na przemysł IT, ale również na odniesienia w dziełach artystycznych do innych dzieł czy nawet na kwestie naprawy samochodów. Spór toczy się o wykorzystanie API języka JAVA. Język Java został stworzony w latach 90. ubiegłego wieku przez Sun Microsystems. Firma udostępniła go bezpłatnie developerom, jednak pobierała opłaty tam, gdzie Java była komercyjnie wykorzystywana. W 2010 roku Oracle kupił Suna, a Google stało się pierwszą firmą, którą koncern Ellisona wziął na celownik, domagają się respektowania swoich praw. W 2012 roku po odrzuceniu zarzutów dotyczących kwestii patentowych i po tym, jak ława przysięgłych nie mogła zdecydować, czy użycie API Javy przez Google'a podlega zasadzie fair use, sąd okręgowy orzekł, że API Javy nie są chronione prawem autorskim. Oracle się odwołał i w 2014 roku federalny sąd apelacyjny stwierdził, że interfejsy mogą być chronione prawem autorskim, jednak nie rozstrzygnął, czy wykorzystanie przez Google'a API Javy było zgodne z zasadami fair use. W tej sytuacji Google odwołał się do Sądu Najwyższego, jednak ten odmówił zajęcia się sprawą. Proces wrócił do sądu okręgowego, a ten w 2016 roku stwierdził, że Google postąpiło zgodnie z zasadami fair-use. Ten wyrok nie spodobał się Oracle'owi, który złożył apelację do sądu federalnego. Ten zaś stwierdził, że wykorzystanie przez Google'a API nie było zgodne z zasadmi fair-use. Google poprosił o powtórzenie procesu w pełnym składzie sądu, ale wniosek odrzucono. Wobec tego w 2019 roku Google ponownie zwrócił się do Sądu Najwyższego o rozpatrzenie sprawy, a ten wyraził zgodę. Prawnicy Google'a argumentują, że zwycięstwo Oracle'a będzie zagrożeniem dla całego przemysłu i po raz pierwszy da właścicielowi praw autorskim monopol, który negatywnie wpłynie na tworzenie i implementację oprogramowania. Prawnicy Oracle'a odpierają zarzuty stwierdzając, że od czasu, gdy po raz pierwszy federalny sąd apelacyjny stanął po stronie Oracle'a i uznał, że Google naruszył prawa tej firmy tempo innowacyjności tylko wzrosło, zwiększając liczbę miejsc pracy i dając kolejne możliwości rozwoju. Oracle twierdzi, że Google próbuje po prostu uniknąć konieczności zapłacenia za naruszenie własności intelektualnej. Już dwa lata temu wyrok sądu federalnego został skrytykowany przez profesora prawa Jonathana Banda na łamach Harvard Journal of Law and Technology. W sporze tym pojawił się nawet argument odwołujący się do... sporu o prawa autorskie z XIX wieku. Otóż w 1874 roku William Perris pozwał Ernesta Hexamera o naruszenie praw autorskich. Hexamer był autorem mapy, w której znalazła się legenda, symbole i kolorystykę taka sama, jak na mapie stworzonej przez ojca Perrisa. W 1878 roku Sąd Najwyższy wydał w tej sprawie wyrok, w którym stwierdził, że nie doszło do naruszenia praw autorskich, gdyż Perris i Hexamer stworzyli różne mapy, które nie były wystarczająco do siebie podobne, a zduplikowaniem symboli to zbyt mało, by stwierdzić, że doszło do naruszenia praw autorskich. W obu sprawach mamy klasę zdefiniowanych funkcji, które są używane jako część dzieła chronionego prawem autorskim, jednak nie doszło tutaj do naruszenia samych praw autorskich, napisał profesor prawa Zvi Rosen. Ostateczny wyrok w tej sprawie ma zapaść w czerwcu. « powrót do artykułu -
W 2019 r. w polskich szpitalach przeprowadzono rekordową liczbę niemal 900 zabiegów przy użyciu robotów da Vinci – wynika z danych udostępnionych PAP przez firmę Synektik, dystrybutora tego systemu w naszym kraju. Polska chirurgia robotyczna wciąż jest jednak w powijakach. Pierwszy robot chirurgiczny da Vinci trafił do Polski już w 2010 r., ale robotyka chirurgiczna wciąż się w Polsce rozwija. Przełomowy był 2018 r., kiedy w polskich szpitalach uruchomiono pięć robotów operacyjnych da Vinci i przeprowadzono przy ich użyciu 60 zabiegów. Aż cztery aparaty zaczęto używać dopiero w czwartym kwartale tego roku, stąd tak duży wzrost zrobotyzowanych operacji w 2019 r. Rok 2019 zamykamy już z ośmioma systemami i niemal 900 przeprowadzonymi operacjami. Liczymy, że dynamika wzrostu zostanie utrzymana przez polski rynek chirurgii robotycznej także w 2020 roku – podkreśla Artur Ostrowski z firmy Synektik, która podsumowała skalę wykorzystania robotów. Zabiegi z udziałem systemu da Vinci przeprowadza się w Polsce zarówno w szpitalach prywatnych, jak i publicznych: we Wrocławiu, Warszawie, Poznaniu, Białymstoku, Krakowie, Wieliszewie i Siedlcach. Według eksperta zalety operacji z użyciem robota to niska utrata krwi, minimalizacja powikłań, mniejsze blizny pooperacyjne, co skraca rekonwalescencję i pobyt pacjentów w szpitalu. Wszystko to sprawia, że choć samo użycie robota pozostaje droższe niż klasyczna operacja, rozwój chirurgii robotycznej wiąże się dla całego polskiego systemu ochrony zdrowia z wymiernymi oszczędnościami – podkreślił Ostrowski. Na stosunkowo niedużą skalę wykorzystania robotów chirurgicznych w Polsce wskazuje raport „Rynek robotyki chirurgicznej w Polsce 2019. Prognozy na lata 2020-2023”, opracowany przez Upper Finance i PMR i opublikowany pod koniec 2019 r. Wynika z niego, że w USA przypada jeden robot chirurgiczny da Vinci na 100 tys. mieszkańców, w Europie jeden na 800 tys. mieszkańców, zaś w Polsce – jeden na aż 6,5 mln mieszkańców. Zdaniem Joanny Szyman z Upper Finance w kraju wielkości Polski powinno być około 40–50 robotów da Vinci. Biorąc pod uwagę stopień rozwoju rynku, sposób finansowania opieki zdrowotnej oraz warunki makroekonomiczne, do końca 2023 r. możemy się spodziewać w sumie około 30 instalacji - dodaje. W 2019 r. na świecie przeprowadzono około 1,25 mln operacji z wykorzystaniem niemal 5,5 tys. tego typu robotów. Najczęściej są one wykorzystywane w urologii, ginekologii, onkologii, bariatrii i chirurgii ogólnej, a ostatnio także w chirurgii klatki piersiowej oraz chirurgii głowy i szyi. Europejskim liderem w dostępie do robotyki medycznej są Niemcy, gdzie pracuje ponad 130 systemów da Vinci, oraz Włochy, gdzie jest ich ponad 120. Zdaniem analityków Upper Finance wykorzystanie robotów chirurgicznych w naszym kraju mogłoby wzrosnąć dzięki wprowadzeniu osobnego programu finansowania procedur z udziałem tych aparatów. Na razie nie ma takich możliwości, choć w 2017 r. Agencja Oceny Technologii Medycznych i Taryfikacji pozytywnie zaopiniowała refundację operacji robotycznych dla trzech wskazań: raka jelita grubego, raka gruczołu krokowego oraz raka błony śluzowej macicy. Zrobotyzowane operacje w naszym kraju są wykonywane prywatnie, w ramach grantów naukowych oraz usług finansowanych przez NFZ (jednak bez uwzględnienia dodatkowych kosztów związanych z eksploatacją robota). Najwięcej takich zabiegów dotyczy urologii, np. w usuwania guzów prostaty u mężczyzn. Zdaniem Artura Ostrowskiego poza finansowaniem kluczowy dla skutecznej i bezpiecznej implementacji tej technologii jest proces szkolenia operatorów. Systemy robotyczne pozostają przede wszystkim narzędziami w rękach wysoko wykwalifikowanych chirurgów. Potwierdza to Monika Stefańczyk z Pharma and Healthcare Business Unit Director w PMR. Twierdzi, że silnym hamulcem w całej opiece zdrowotnej zarówno prywatnej jak i publicznej są problemy z niewystarczającą liczbą wykwalifikowanej kadry medycznej. W przypadku zakupu robota świadczeniodawca nie może zapomnieć również o środkach związanych ze szkoleniem lekarzy i przygotowaniem kadry do obsługi tak skomplikowanego sprzętu. Warto zaznaczyć, że jest to również długotrwały proces – dodaje. Prezydent Międzynarodowego Stowarzyszenia na Rzecz Robotyki Medycznej prof. Zbigniew Nawrat, główny konstruktor robota Robin Heart, który ma być wykorzystywany w operacjach serca, uważa, że roboty dają siłę słabszym, sprawność tam, gdzie brakuje jej ludziom. Robot da Vinci optymalizuje ruchy operatora poprzez eliminację naturalnego drżenia mięśni i poprawienie pola widzenia. To z kolei pozwala zawęzić obszar interwencji chirurgicznej, a precyzja nacięć sprawia, że sam zabieg jest mniejszym obciążeniem dla pacjentów. « powrót do artykułu