Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36968
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    226

Zawartość dodana przez KopalniaWiedzy.pl

  1. Gdy empatyczny partner dotyka dłoni cierpiącej kobiety, ich tętna i częstość oddechu się synchronizują, a ból kobiety się zmniejsza. Im bardziej empatyczny partner, tym silniejszy efekt przeciwbólowy i większa synchronizacja między dwojgiem dotykających się ludzi - podkreśla dr Pavel Goldstein z Uniwersytetu Kolorado w Boulder. Naukowcy od dawna wiedzą, że ludzie nieświadomie dostosowują się do kroków osoby, z którą idą lub że zmieniają swoją postawę, odzwierciedlając układ ciała przyjaciela w czasie rozmowy. Ostatnie badania pokazały także, że kiedy ludzie oglądają razem emocjonujący film lub razem śpiewają, synchronizują się ich tętna i oddechy. Badanie Goldsteina i prof. Simone Shamay-Tsoory oraz Irit Weissman-Fogel z Uniwersytetu w Hajfie jako pierwsze dotyczyło synchronizacji interpersonalnej w kontekście bólu i dotyku. Goldstein wpadł na pomysł studium podczas narodzin swojej córki. Moja żona cierpiała, a ja cały czas myślałem: co mogę zrobić, by jej pomóc? Sięgnąłem po jej rękę i wydawało się, że to pomaga. Chciałem więc przetestować w laboratorium, czy ktoś może rzeczywiście zmniejszyć ból za pomocą dotyku, a jeśli tak, to w jaki sposób. Goldstein zebrał grupę heteroseksualnych par w wieku od 23 do 32 lat. Poddano je testom nawiązującym do scenariusza sali porodowej. Mężczyźni byli obserwatorami, a kobiety miały odczuwać ból. Najpierw ich tętno i częstość oddechu mierzono, gdy 1) siedzieli obok, nie dotykając się, 2) siedzieli obok siebie, trzymając się za ręce i 3) przebywali w różnych pomieszczeniach. Później wszystkie 3 sytuacje powtarzano, gdy u kobiet za pomocą gorąca przez 2 min wywoływano lekki ból przedramienia. Okazało się, że po prostu siedząc razem, pary do pewnego stopnia synchronizowały się fizjologicznie. Kiedy jednak u niej wywoływano ból, a on nie mógł jej dotykać, synchronizacja się zmniejszała. Gdy jemu pozwalano wziąć ją za rękę, tętno i częstość oddechu ponownie się synchronizowały, a ból się zmniejszał. Wydaje się, że ból kompletnie zaburza synchronizację interpersonalną w parach, ale dotyk ją przywraca. Nie wiadomo, czy mniejszy ból wywołuje większą synchronizację, czy jest dokładnie na odwrót. Może być tak, że dotyk jest narzędziem do komunikowania empatii i działa przeciwbólowo. Autorzy publikacji z pisma Scientific Reports podkreślają, że potrzeba dalszych badań, by ustalić, w jaki sposób dotyk partnera zmniejsza ból. Goldstein podejrzewa, że synchronizacja interpersonalna wpływa na obszar mózgu zwany przednim zakrętem obręczy (ang. anterior cingulate cortex, ACC), który wiąże się z percepcją bólu, empatią, a także tętnem i oddechem. Naukowcy wykonali podczas eksperymentów EEG i planują je przeanalizować w ramach oddzielnego studium. « powrót do artykułu
  2. Dr Sok-Sithikun Bun z Monako przestawił na konferencji Europejskiego Towarzystwa Kardiologicznego w Wiedniu wyniki niewielkiego badania, które wskazują, że implanty piersi zaburzają wyniki ekg. Nie chcemy straszyć pacjentek, ale mądrze by było zrobić sobie ekg. przed wszczepieniem implantów i trzymać je w dokumentach na wypadek, gdyby trzeba było przeprowadzić porównania po kolejnym badaniu. W badaniu Buna wzięło udział 48 zdrowych kobiet w wieku od trzydziestu kilku do czterdziestu kilku lat; 28 miało implanty piersi, a 20 nie. Wyniki ich ekg. miało interpretować 2 niezależnych ekspertów. Nie znali oni ochotniczek ani nie wiedzieli, która z nich ma implanty, a która nie. Okazało się, że w grupie z implantami ponad 1/3 zapisów uznano za nieprawidłową. Co istotne, inne badania/markery stanu serca wypadały prawidłowo. Mamy 2 hipotezy. Możliwe, że składniki implantu działają jak bariera dla sygnałów elektrycznych z serca. Niewykluczone też, że przez implanty nieco inaczej rozmieszcza się elektrody. Nie wiadomo, czy rozmiar implantów ma znaczenie. Bun podkreśla, że istnieje ryzyko, że zapis ekg. skłoni lekarzy do postawienia pochopnej diagnozy. Wierząc elektrokardiogramowi, lekarze mogą mylnie stwierdzić, że pacjentka z implantami piersiowymi ma objawy choroby niedokrwiennej serca. « powrót do artykułu
  3. Mielona kawa pomoże w przeprowadzaniu operacji nosa czy przełyku. Na taki pomysł wpadli inżynierowie z Vanderbilt University, którzy za pomocą kawy udoskonalili system nawigacyjny, pozwalający chirurgom na precyzyjne przeprowadzanie operacji. Uczeni z Vanderbilt zamknęli kawę w gumowym czepku wzorowanym na czepku pływackim. Czarny czepek pokryty jest odbijającymi światło kropkami. Po umieszczeniu go na głowie pacjenta podłączana jest pompa próżniowa, dzięki której czepek ściśle przylega do głowy, a cząstki kawy przylegają do siebie, podobnie jak w opakowaniu kawy, z którego również odsysa się powietrze. Kawa tworzy warstwę dobrze dopasowaną do głowy pacjenta. Przed operacją dokonuje się tzw. rejestracji, podczas której specjalny skaner precyzyjnie określa położenie kropek względem kluczowych punktów na głowie pacjenta. W czasie samej operacji umieszczona nad pacjentem kamera obserwuje położenie kropek, precyzyjnie śledząc pozycję głowy pacjenta. Tak uzyskane dane są nakładane na wykonany wcześniej skan tomografem komputerowym, na którym uwidocznione są wszystkie kości i tkanki, na wszystko nakłada się pozycję narzędzi chirurgicznych a całość w czasie rzeczywistym wyświetlana jest na monitorze, który pomaga chirurgowi w przeprowadzeniu operacji. To bardzo precyzyjne operacje i na ich potrzeby powstały zaawansowane systemy obrazowania, jednak chirurdzy nie do końca im ufają, ponieważ czasami punkty odniesienia zmieniają pozycję. Gdy o tym usłyszeliśmy, postanowiliśmy zbadać, dlaczego tak się dzieje – mówi profesor inżynierii mechanicznej i otolaryngologii Robert Webster. Ku zdumieniu ekspertów okazało się, że błędy nawigacyjne nie wynikają z problemów ze sprzętem czy oprogramowaniem. Testy wykazały, że przypadkowe uderzenia i poruszenia taśm, do których mocowane są znaczniki oraz przesuwanie się skóry odpowiadają za większość błędów. Badania wykazały, że skóra na czole pacjenta może przesuwać się nawet o ponad centymetr względem czaszki. Znaczne błędy powstają też przy przypadkowym pociągnięciu za kable – wyjaśnia Patrick Wellborn, jeden z autorów wynalazku. Już wcześniejsze badania wykazały, że jeśli wszystko idzie dobrze, to pojawiające się błędy nawigacyjne nie przekraczają 2 milimetrów, ale w aż 15% operacji błędy są na tyle duże, że chirurg musi dokonywać ponownej rejestracji. Istnieje rozwiązanie tego problemu, ale zakłada ono nawiercenie otworów w czaszce i umieszczenie tam punktów orientacyjnych, a nie chcemy tego robić, gdyż jest to bolesne, a poza tym to krok w tył w stosunku do celów większości operacji tego typu – stwierdził otolaryngolog, profesor Paul Russel. Naukowcy zaczęli zastanawiać się, jak zaradzić temu problemowi, a wówczas profesor Webster przypomniał sobie eksperyment, podczas którego wykorzystano balony wypełnione kawą, które ułatwiały robotom chwytanie przedmiotów o nieregularnych kształtach. Po przeprowadzeniu pierwszych eksperymentów naukowcy zdecydowali się więc na kawę i przez ostatnie trzy lata poszukiwali jak najlepszej metody wykorzystania ziaren tej rośliny w chirurgii. W końcu stworzyli wypełniony kawą „czepek pływacki”, którego użycie wymaga wyznaczenia jedynie trzech punktów odniesienia. Do samego czepka można zaś przylepić kilkadziesiąt kropek ułatwiających nawigację. W końcu przyszedł czas na testy nowego projektu. Przeprowadzono trzy rodzaje testów. W „czepek” rzucano piłeczkami tenisowymi, co miało symulować uderzenia. Okazało się, że nowy projekt aż o 83% zmniejsza liczbę błędów powstających w takim przypadku. Następnie symulowano przypadkowe pociągnięcia za kable w różnych kierunkach. W porównaniu z obecnie wykorzystywanymi technikami nowa metoda redukowała błędy o 76% gdy siłę przyłożono do czepka i o 92% gdy siłę przyłożono do punktów orientacyjnych. W końcu sprawdzano też sytuację, w której głowa pacjenta zmienia pozycję i gdy doświadczony chirurg układa ją w pozycji pożądanej. W takim przypadku czepek redukował liczbę błędów o 66%. Wyniki testów są tak dobre, że Vanderbilt University złożył już wniosek patentowy na swoją technologię i rozpoczyna jej licencjonowanie. « powrót do artykułu
  4. Ludzie postrzegają znane twarze jako szczęśliwsze od nieznanych, nawet jeśli obiektywnie wyrażają one ten sam stopień tej samej emocji. Nasze wyniki sugerują, że znajomość - doświadczenie z czyjąś twarzą w wyniku powtarzalnej ekspozycji - nie tylko wpływa na oceny lubienia czy atrakcyjności, ale i pogłębia percepcję wyrażanych przez nią emocji [...] - zaznacza Evan Carr z Columbia Business School. Carr oraz Timothy F. Brady i Piotr Winkielman z Uniwersytetu Kalifornijskiego w San Diego przeprowadzili 2 eksperymenty. W pierwszym zastosowano morfing męskich i kobiecych twarzy. Dzięki temu zabiegowi uzyskano serię kontinuów, złożonych z fizjonomii zmieniających się od 50% złości, przez neutralność, do 50% szczęścia. W teście, ponoć pamięciowym, wzięło udział 50 studentów. Proszono ich o śledzenie koloru i liczby kwadratów pojawiających się losowo na ekranie na zdjęciach twarzy z neutralnym wyrazem. W ten sposób ludzie mogli się zapoznać z niektórymi twarzami, nie zwracając na nie bezpośrednio uwagi. Później studentom pokazywano pary, w których należało wskazać twarz, która wygląda na szczęśliwszą (jedno zdjęcie znajdowało się nad, a drugie pod linią przecinającą ekran). Każda para składała się z 1 znanej i 1 nowej fizjonomii. Obie przedstawiały emocję o tym samym nasileniu. Okazało się, że badani częściej wskazywali znaną twarz jako szczęśliwszą. Co ciekawe, odchylenie występowało wyłącznie w przypadku pozytywnych emocji (te z szczęśliwszej połówki kontinuum wydawały się bardziej uśmiechnięte, lecz te z połówki złej wcale nie wydawały się mniej zachmurzone). W dodatku tendencja do uznawania znanej twarzy za szczęśliwszą rosła z nasileniem pozytywnych cech. Oznacza to, że prawdopodobieństwo wskazania znanej twarzy jako szczęśliwszej było większe w przypadku fizjonomii wyrażającej 50 niż 25% szczęścia. W 2. eksperymencie psycholodzy poprosili studentów, by po kolei oglądali zdjęcia twarzy i za każdym razem określali, czy wyglądają na szczęśliwe, czy złe. To, na jak bardzo szczęśliwą wygląda dana twarz, należało ocenić na skali od 0 do 100%. Ponownie okazało się, że ochotnicy częściej identyfikowali znane twarze jako szczęśliwe, ale tylko wtedy, gdy były one emocjonalnie neutralne bądź pozytywne. Oprócz tego ocena stopnia szczęśliwości rosła ze wzrostem pozytywnych cech. Wygląda więc na to, że znana twarz jest klasyfikowana jako szczęśliwa przy mniejszej liczbie/nasileniu obiektywnie szczęśliwych cech. Eksperymenty pokazują, jak elastyczne są procesy emocjonalno-percepcyjne. Postrzeganie emocji nie jest wyłącznie schematycznym łączeniem cech twarzy. Zachodzi także dynamiczne włączanie wskazówek specyficznych dla osoby, którą próbuje się rozszyfrować. Nawet ocena tego, na jak szczęśliwego ktoś wygląda, jest do pewnego stopnia subiektywna i zależy od wcześniejszych doświadczeń z tym człowiekiem i typem przeżywanej przez niego emocji - podsumowuje Carr i dodaje, że w przyszłości trzeba wyjaśnić, czemu znajomość wpływa na percepcję pozytywnych wyrazów twarzy, a negatywnych już nie. Rodzą się też pytania, 1) czy chodzi wyłącznie o złość, czy też podobne zjawisko będzie też zachodzić w przypadku np. obrzydzenia czy strachu i 2) czy płeć lub rasa czyjeś twarzy wpływają jakoś na efekt znajomości. « powrót do artykułu
  5. W Sheikh 'Abd el-Qurna w pobliżu Luksoru znaleziono jedną z najstarszych znanych nam protez. Liczący niemal 3000 lat drewniany paluch został zbadany za pomocą mikroskopu, aparatu rentgenowskiego oraz tomografu komputerowego. Naukowcy dowiedli, że paluch był wielokrotnie mocowany do stopy właścicielki, córki kapłana. Udało się też dokładnie zbadać budowę i sposób wytworzenia protezy. Specjaliści zwracają uwagę, że proteza świadczy o dużej zręczności rzeźbiarza, który musiał mieć też dobrą wiedzę o ludzkiej fizjologii. Zaawansowanie technologiczne widać w wykonaniu samego palucha jak i mocującego go skórzanego pasa. Dokładność wykonania świadczy zaś o dużej ilości pracy włożonej w stworzenie protezy, co z kolei wskazuje, że jej właścicielka przykładała wagę nie tylko do estetyki, ale i wygody posługiwania się protezą. Była też w stanie opłacić specjalistę wysokiej klasy, który protezę wykonał. Proteza została znaleziona w splądrowanym grobie szybowym, wykutym w skale w miejscu wcześniejszej dawno nie używanej kaplicy grobowej. Kaplica należy do grupy monumentalnych grobów skalnych pochodzących z XV wieku przed Chrystusem. W grobach tych chowano przedstawicieli niższych warstw klasy wyższej, którzy byli blisko rodziny królewskiej. Szwajcarzy od dwóch lat prowadzą tam badania, chcąc poznać historię tego cmentarza dla elity. Najstarsze znane groby z Sheikh 'Abd el-Qurna pochodzą z początków drugiego tysiąclecia przed Chrystusem, a cmentarz najbardziej intensywnie używany był w XV wieku p.n.e. W późniejszych wiekach wiele z ówczesnych grobowców było przebudowywanych i ponownie wykorzystywanych. Jeszcze później, u początków chrześcijaństwa, miejscowa ludność używała tego obszaru w celach mieszkaniowych. Stan ten trwał do początków XX wieku. « powrót do artykułu
  6. Dowody wskazują, że setki lat po podbiciu przez Rzym basenu Morza Śródziemnego, w samej Italii, w jej centralnej i południowej części, mieszkały społeczności, które pod względem fizycznym różniły się od siebie. Różnice takie nie występowały jednak w okolicy samego Rzymu. Antropolodzy z North Carolina State University i California State University wykorzystali najnowsze techniki śledcze do przeanalizowania czaszek z trzech cmentarzy. Z Isola Sacra na wybrzeżu środkowej Italii przeanalizowano 27 czaszek, 26 pochodziło z Velii na południowym wybrzeżu a 20 z Castel Malnome w pobliżu Rzymu. W Isola Sacra i Velii chowano kupców należących do klasy średniej, w Castel Malnome byli grzebani pracownicy fizyczni. Wszystkie szczątki pochodzą z I-III wieku naszej ery. Na każdej z czaszek dokonano pomiarów w 25 punktach, co pozwoliło na dokładne określenie kształtu czaszki. Odkryliśmy, że istnieją znaczące różnice w kształcie czaszki pomiędzy społecznościami żyjącymi na wybrzeżach. Występują one opmimo tego, że obie populacje były do siebie podobne pod względem statusu i zajęcia – mówi Ann Ross. Sądzimy, że wynika to z faktu, iż wokół Velii zamieszkiwała duża grecka populacja, a nie miejscowi – dodaje profesor Samantha Hens. Zauważono również, że czaszki z Castel Malnome mają więcej wspólnego z obiema populacjami nadmorskimi, niż te populacje ze sobą. To prawdopodobnie pokazuje, jak bardzo heterogeniczna była ludność zamieszkująca okolice Rzymu. To skutek napływu wyzwoleńców i słabo opłacanych prostych robotników – dodaje Hens. Dotychczas, by opisać migracje z czasów Republiki i Cesarstwa, używano różnego rodzaju badań, od lingwistycznych po badania uzębienia. Nasze badania, o ile nam wiadomo, są pierwszymi, podczas których wykorzystano technikę morfometryki geometrycznej do zbadania szczątków. To bardzo istotne, gdyż technika ta ma kilka zalet. Pozwala na zebranie wszystkich informacji geometrycznych w przestrzeni trójwymiarowej, a nie w pliku statystycznym, daje więcej informacji biologicznych i umożliwia przeprowadzenie wizualizacji w miejsce zestawu suchych pomiarów – dodaje Ross. Wzorce różnic i podobieństw pozwalają na określenie relacji pomiędzy społeczeństwami z przeszłości. Ponadto wykorzystane metody umożliwiają określenie, gdzie zaszły zmiany kształtu, co pozwala stwierdzić, jak ci ludzie wyglądali – wyjaśnia Hens. « powrót do artykułu
  7. Przez dwa tygodnie w internecie dostępna była niezaszyfrowana baza danych zawierająca informacje o 198 milionach amerykańskich wyborców. Baza, tworzona na zlecenie Republican National Committee, zawierała numery telefonów, adresy oraz przypuszczenia co do prawdopodobnego wyznania i pochodzenia etnicznego wpisanych w nią osób. Publicznie dostępne pliki zostały znalezione na niezabezpieczonym serwerze przez ekspertów z firmy UpGuard. Każdy, kto znał adres witryny, mógł przeglądać i pobierać niezabezpieczone dane. Grupy przestępcze byłyby bardzo zainteresowane takimi danymi – mówi Brandon McCrillis z firmy Rendition Infosec. Pracownicy UpGuard trafili na bazę 12 czerwca, poinformowali o niej władze federalne, a 14 czerwca baza została zabezpieczona. Dyrektor UpGuard, Mike Baukes ocenia, że dane były publicznie dostępne przez 10-12 dni. Twórcą i właścicielem bazy ejst firma Deep Root Analytics, która na zlecenie Partii Republikańskiej pomaga jej docierać do wyborców. Współzałożyciel firmy, Alex Laundry, stał na czele analityków pracujących przy kampaniach prezydenckich Mitta Romneya w 2012 roku i Jeba Busha w 2016. Wiadomo też, że w tworzeniu bazy miały udział jeszcze co najmniej dwie firmy, TargetPoint Consulting i Data Trust. Wszystkie wymienione przedsiębiorstwa pomagały w kampanii prezydenckiej Donalda Trumpa. W bazie o pojemności 1,1 terabajta zawarto informacje o niemal wszystkich amerykańskich wyborcach, którzy stanowią około 60% populacji USA. Baza była aktualizowana w styczniu bieżącego roku. Podzielono ją na dwie wielkie części. Jedna zawierała informacje zebrane podczas wyborów w 2008 roku, druga to dane zebrane w 2012 roku. W bazie, oprócz danych osobowych i przypuszczalnego pochodzenia etnicznego oraz wyznania znalazły się też informacje dotyczące przypuszczalnego wsparcia poszczególnych wyborców dla konkretnych punktów programu prezydenta Trumpa czy też oceny, z jakim prawdopodobieństwem dany wyborca głosował w 2012 roku na Baracka Obamę. « powrót do artykułu
  8. Do roku 2100 aż 74% ludzkiej populacji będzie narażone na śmiertelnie groźne fale upałów. Takie zjawiska będą miały miejsce, jeśli emisja dwutlenku węgla będzie rosła w takim tempie jak obecnie. Nawet jeśli znacząco ją zmniejszymy, to problem śmiercionośnych fal upałów będzie dotyczył 48% populacji. Powoli kończy nam się wybór. Jeśli idzie o fale upałów to obecnie możemy jeszcze wybierać pomiędzy scenariuszem złym a okropnym. Już teraz wiele osób na całym świecie płaci najwyższą cenę z powodu fal upałów, a modele klimatyczne pokazują, że trend taki będzie kontynuowany. Może być znacznie gorzej, jeśli znacząco nie zredukujemy emisji. Ludzki organizm może prawidłowo funkcjonować jedynie w wąskim zakresie temperatury ciała oscylującej wokół 37 stopni Celsjusza. Fale upałów stanowią poważne niebezpieczeństwo, gdyż wyższa temperatura w połączeniu z wyższą wilgotnością może podnieść temperaturę ciała do poziomu groźnego dla życia – mówi główny autor badań, profesor Camilo Mora z University of Hawaii. Zespół badawczy dokonał szerokiego przeglądu badań i zlokalizował ponad 1900 miejsc, w których od roku 1980 ludzie zginęli z powodu wysokich temperatur. Po przeanalizowaniu 783 epizodów śmiercionośnych fal upałów i warunków klimatycznych wówczas panujących naukowcy byli w stanie zidentyfikować granice temperatury i wilgotności, przekroczenie których skutkowało śmiercią ludzi. Okazało się, że zwiększa się obszar Ziemi, na którym warunki takie panują przez co najmniej 20 dni w roku. Obecnie około 30% ludzkiej populacji jest każdego roku narażone na wystąpienie śmiercionośnych fal upałów. W ostatnich latach mieliśmy do czynienia z głośnymi zjawiskami tego typu. W 2003 roku fala upałów zabiła w Europie około 70 000 osób, w 2010 roku w Moskwie z powodu wysokich temperatur zmarło 10 000 osób. Wiadomo też, że w 1995 roku fala upałów zabiła 700 mieszkańców Chicago. Jednak poza tymi głośnymi przypadkami nie było wiadomo, jak powszechne są tego typu zjawiska. Dlatego też naukowcy przeanalizowali ponad 30 000 publikacji i zidentyfikowali 911 prac naukowych z danymi dotyczącymi 1949 przypadków miast i regionów, gdzie fale upałów powiązano ze zgonami. Udało się uzyskać szczegółowe dane dotyczące 783 fal upałów w 164 miastach w 36 krajach. Najwięcej danych pochodziło z miast położonych na średnich szerokościach geograficznych, takich jak Nowy Jork, Waszyngton, Chicago, Los Angeles, Toronto, Pekin, Londyn, Tokio, Sydney i Sao Paulo. Analiza warunków klimatycznych w tych miastach pozwoliła na wyznaczenie śmiertelnie niebezpiecznej granicy upału i wilgotności, która zagraża człowiekowi. Uzyskane w ten sposób wartości okazały się zgodne z tym, co wiemy o fizjologii człowieka – im wyższa wilgotność, tym niższa temperatura staje się śmiertelnie niebezpieczną. Jak mówi Farrah Powell, jedna ze współautorek badań, określenie granicy temperatury i wilgotności jest bardzo pomocne, a najbardziej przerażające jest, jak powszechnie niebezpieczne warunki występują już obecnie. Wraz z wynikami badań udostępniono też internetową aplikację, która pozwala sprawdzić, jak może wyglądać przyszłość świata. A ta nie rysuje się w najlepszych barwach dla wielu bardzo zaludnionych obszarów. Szczególnie trudna sytuacja będzie na południu Azji, od Indii po Filipiny, gdzie występują wysokie temperatury i duże obszary wody. Jeśli nic się nie zmieni, to w roku 2100 w stolicy Sri Lanki Kolombo wystąpią 244 dni z warunkami zagrażającymi życiu ludzi. W tym samym roku w Singapurze będzie 240 takich dni, w Palembangu na Sumatrze będzie to 284, w stolicy Indonezji Dżakarcie mieszkańcy mogą spodziewać się wówczas 256 dni zagrażających życiu. Ucierpią również mieszkańcy Afryki. W Lome (stolica Togo) będą 163 zagrażające życiu dni, a w Abidżanie (Wybrzeże Kości Słoniowej) – 160 dni. Bardzo zła sytuacja będzie panowała w równikowych okolicach Ameryki Południowej. Brazylijskie Manaus doświadczy 211, a Leticia 269 dni z pogodą zagrażającą życiu. W peruwiańskim Iquitos będzie ich 192, a w Panama City już 230. Problemy nie oszczędzą też mieszkańców USA. W Houston należy spodziewać się 105, a w Miami 79 dni ze śmiercionośną pogodą. Ogrzewanie się biegunów stało się symbolem zmian klimatycznych spowodowanych przez emisję gazów cieplarnianych. Nasze badania pokazują, że to ocieplanie się tropików stanowi największe zagrożenie dla ludzkiego życia. Występujące tam już obecnie wysokie temperatury i duża wilgotność powodują, że wystarczy niewielki wzrost temperatur, by tamtejsze warunki stały się śmiertelne dla ludzi – mówi współautor badań, Iain Caldwell. « powrót do artykułu
  9. By pomóc w jakiś sposób bezdomnym, których liczba w Południowej Kalifornii cały czas rośnie, grupa 12 nastolatek zaprojektowała przenośne namioty zasilane energią słoneczną. Dziewczyny nie miały wykształcenia inżynieryjnego, wszystkiego musiały się więc nauczyć od podstaw. Początkowo ekipa skoncentrowała się na technikach oczyszczania wody, ale dziewczyny szybko doszły do wniosku, że dla bezdomnych ważniejszy jest brak prywatności i miejsca, gdzie mogliby się schronić. Po roku nabywania i doskonalenia różnych umiejętności (kodowania, druku 3D czy szycia) nastolatki ukończyły prototyp swojego produktu. Namiot można z łatwością złożyć do postaci plecaka. Wyposażono go w zasilane energią słoneczną światła LED, a także 2 złącza USB i 1 gniazdo microUSB. Nastolatki przyłączyły się do DIY Girls, organizacji non-profit, która ma zwiększać zainteresowanie dziewcząt technologią i inżynierią, a ze swojej strony zapewnia m.in. kontakty mentorskie. W ten sposób Maggie Mejia i reszta zyskały świetną platformę dla swojego projektu i zdobyły dofinansowanie na rozwój wynalazku z Lemelson-MIT Program. Koniec końców 16 czerwca licealistki zaprezentowały swój produkt na konferencji młodych wynalazców MIT-u. « powrót do artykułu
  10. Paracetamol równie skutecznie co ibuprofen obniża ryzyko choroby wysokościowej (ang. acute mountain sickness, AMS), ale powoduje mniej skutków ubocznych. Złotym standardem w profilaktyce choroby wysokościowej jest acetazolamid, który może wywoływać nieprzyjemne skutki uboczne w postaci parestezji, czyli mrowienia, drętwienia czy silnego gorąca, zwłaszcza w palcach dłoni i stóp. Specjaliści wspominają też o ryzyku reakcji alergicznej. Choć wykazano, że ibuprofen zmniejsza ryzyko AMS, powoduje on skutki uboczne ze strony przewodu pokarmowego. Z tego powodu naukowcy postanowili sprawdzić, czy paracetamol, który jest bardziej przyjazny np. dla żołądka, także obniży ryzyko choroby wysokościowej. Wyniki badania pokazują, że po profilaktycznym stosowaniu ibuprofenu i paracetamolu nie ma znaczącej różnicy w częstości występowania i nasileniu AMS - podkreśla Buddha Basnyat z Uniwersytetu Oksfordzkiego. Najlepszym sposobem zapobiegania AMS jest powolne wspinanie. Alpiniści, turyści, pielgrzymi, ekipy ratownicze czy wojskowe mogą jednak ignorować właściwą aklimatyzację albo uznawać ją za niepraktyczną. Autorzy publikacji z Wilderness & Environmental Medicine przeprowadzili podwójnie ślepe badanie z losowaniem do grup. Uwzględniono w nim 332 nie-Nepalczyków, którzy wspinali się na Mount Everest. Werbowano ich zarówno w Pheriche na wysokości ok. 4.371 m, jak i w Dingboche na wysokości 4530 m n.p.m. i proszono, by przed dotarciem do Lobuche na wysokości 4.940 m trzy razy dziennie zażywali ibuprofen albo paracetamol. W Lobuche badano ich z wykorzystaniem Lake Louise Questionnaire, narzędzia do diagnozowania choroby wysokościowej. Okazało się, że jak wcześniej wspomniano, między grupami nie było istotnej statystycznie różnicy w częstości występowania i nasileniu AMS. « powrót do artykułu
  11. Najnowsze badania genetyczne wskazują, że koty nie zostały udomowione w taki sam sposób jak psy, krowy czy świnie. Koty od tysięcy lat żyją wśród ludzi, ale dopiero niedawno pojawiły się u nich zmiany typowe dla udomowionych zwierząt. W przeciwieństwie do psów, u których w ciągu ostatnich 30 000 lat zaszły znaczące zmiany, koty domowe są fizycznie i genetycznie niemal identyczne ze swoimi dzikimi kuzynami. Brak też u nich typowych zmian związanych z udomowieniem – pyski nie mają bardziej łagodnego wyglądu, zęby nie uległy zmniejszeniu, nie stały się też bardziej uległe. Dzikie koty, z niewielkimi wyjątkami, nie są zwierzętami społecznymi, nie żyją w stadach, przez co źle integrują się ze społecznym człowiekiem. To może być przyczyną, dla której koty przeszły nietypową drogę ku udomowieniu. Bo temu, że koty są udomowione nie da się zaprzeczyć. Wiadomo, że żyją z człowiekiem od co najmniej 10 000 lat. Na Cyprze znaleziono bowiem grób, w którym obok człowieka pochowano kota. Wiek grobu oszacowano na 9500 lat. Genetyk Claudio Ottoni z Uniwersytetu w Leuven postanowił zbadać historię kota. Wraz z międzynarodową grupą uczonych przeprowadził analizy mitochondrialnego DNA ponad 200 kotów, zarówno żyjących obecnie, jak i przed 9000 lat. Na łamach Nature Ecology & Evolution Ottoni i jego zespół donoszą, że z niewielkich obszarów pięć odrębnych kladów kotów gwałtownie rozprzestrzeniło się po świecie. W końcu klady z Egiptu i Azji Południowo-Wschodniej zdominowały świat. Rozprzestrzenianie się kotów miało związek głównie z rozwojem rolnictwa. Uprawa roślin przyciągała do ludzkich siedzib gryzonie, a za nimi podążyły koty, które dołączyły do rolniczych społeczności, podobnie jak wcześniej do społeczności myśliwych dołączyły psy. Im bliżej czasów współczesnych tym bardziej niezwykła staje się historia kotów. Uczeni zauważają egipskie koty w średniowiecznym porcie Wikingów i azjatyckie koty w rzymskim porcie na Morzu Czerwonym u szczytu potęgi Cesarstwa Rzymskiego. Naukowcy zdali sobie sprawę, że koty zaczęły rozprzestrzeniać się również drogą morską. W okresie klasycznym kapitanowie zwykle zabierali na pokład koty, by zwalczały one gryzonie. Do średniowiecza praktyka ta stała się już tak powszechna, że w niektórych miejscach istniały prawa zakazujące wypływania w podróż bez kota na pokładzie. Takie podróżujące koty uciekały ze statków w różnych portach, gdzie krzyżowały się z kotami miejscowymi, a geny jednych kladów zaczęły w końcu zwyciężać z genami innych. Wiele wskazuje na to, że przez tysiące lat szczególną popularnością cieszyły się koty z Egiptu. Prawdopodobnie ze względu na swój przyjacielski charakter. Świat miał na tyle dużą obsesję na punkcie egipskich kotów, że stało się to problemem politycznym i już w 1700 roku przed Chrystusem istniały w Egipcie lokalne prawa zakazujące handlu kotami. Mimo to koty z Egiptu rozprzestrzeniły się tak bardzo, że z czasem wszystkie domowe koty z basenu Morza Śródziemnego pochodziły z egipskiego kladu. Mimo tego, że koty od dawna żyły wśród ludzi, ludzie prawidłowo ich nie udomowili. A wyrażając się bardziej precyzyjnie, nie kontrolowali ich rozmnażania się. Zarówno koty mieszkające w domu, jak i podróżujące na statkach często łączyły się z lokalnymi dzikimi kotami. Ottoni i jego zespół nie znaleźli żadnych dowodów na to, by przed średniowieczem ludzie próbowali w jakikolwiek sposób świadomie hodować koty. Prawdopodobnie pierwszym stworzonym przez człowiek kotem był kot pręgowany, którego pręgi przechodzą w cętki i wiry. Już wcześniej zidentyfikowano mutację genetyczną odpowiedzialną za takie umaszczenie, a że nie występuje ono u dzikich kotów, łatwo je śledzić i można stwierdzić, że jest to ludzkie dzieło będące efektem zabiegów hodowlanych. Pojawienie się takiego umaszczenia można uznać za początek udomowienia kotów. Widzimy tutaj zasadniczą różnicę pomiędzy kotami, a psami, kozami czy innymi udomowionymi zwierzętami. Jak już wspomniano, naukowcom nie udało się znaleźć dowodów na celową hodowlę kotów przed średniowieczem, zatem można uznać, że ludzie świadomie hodują koty od mniej niż 1000 lat. Inne gatunki zwierząt udamawiamy od wielu tysięcy lat. Skoro więc znajdujemy się dopiero na początku historii udomawiania kotów, możemy wyobrazić sobie, że w przyszłości będzie istniało równie dużo ras kotów co i psów. Być może powstaną duże, bardzo przyjazne rasy o jasnozłotym długim futrze, jak współczesne golden retrivery. Lub też koty, które przez całe życie będą wyglądały jak kociaki. Już przecież obecnie istnieje około 60 ras kotów domowych, a to wciąż ponadtrzykrotnie mniej niż ras psów. « powrót do artykułu
  12. Co roku przez Afrykę migruje ponad milion gnu. Wiele antylop tonie, pokonując rzekę Mara. Biolodzy po raz pierwszy pokusili się o zliczenie ginących zwierząt i o określenie ich wpływu na ekologię rzeki. Rzeka Mara przecina trasę jednej z największych lądowych migracji świata. W szczycie migracji Marę przekraczają kolejne fale gnu, co niekiedy prowadzi do utonięcia setek, a nawet tysięcy osobników. W ramach naszego studium jako pierwsi sporządziliśmy statystyki masowych utonięć i zbadaliśmy, jak to wpływa na życie rzeki - opowiada dr Amanda Subalusky z Cary Institute of Ecosystem Studies. Naukowcy przez 5 lat prowadzili badania terenowe i przeanalizowali historyczne raporty Mara Conservancy z 10 lat. W ten sposób chcieli określić wskaźnik i częstotliwość utonięć w kenijskim odcinku Mary. Okazało się, że każdego roku w trakcie migracji poddaje się i tonie średnio 6200 gnu, co odpowiada 1100 t biomasy. W okresie między 2001 a 2015 r. aż w 13 latach dochodziło do masowych utonięć. Chcąc odzwierciedlić skalę tego zjawiska, trzeba powiedzieć, że to odpowiednik wrzucania rokrocznie do średniej wielkości rzeki 10 trucheł płetwali błękitnych. W ten sposób do rzecznej sieci pokarmowej dostają się azot, fosfor i węgiel z lądu. Na początku tkanki miękkie gnu zjadają padlinożercy i ryby, później kości antylop wolno uwalniają swoje składniki do ekosystemu - zasilając glony i wpływając na sieć troficzną w skali dziesięcioleci - wyjaśnia Emma Rosi. By ujawnić los zwłok gnu, naukowcy modelowali zjadanie przez ryby, krokodyle nilowe i ptaki, a także wychwyt składników odżywczych i osiadanie materiału. Przeprowadzili analizę stabilnych izotopów u popularnych ryb i w biofilmach rosnących na kościach gnu, a za pomocą kamery monitorowali poczynania padlinożerców. Tkanki miękkie gnu rozkładają się w 2-10 tygodni, a kości w 7 lat (dzięki temu stanowią długoterminowe źródło fosforu). [Podczas masowych utonięć] gnijące mięso ostro zasila wodny ekosystem składnikami odżywczymi. Gdy jednak truchła znikają, kości, które stanowią prawie połowę dodanej biomasy, nadal zasilają rzekę - wyjaśnia Rosi. Gdy zwłoki antylop są obecne, stanowią 34-50% diety ryb. Najczęściej pojawiający się padlinożercy - marabut afrykański, sęp afrykański, sęp brunatny i sęp plamisty - zjadają 6-9% tkanek miękkich. Biofilmy rosnące na kościach gnu mają unikatową sygnaturę izotopową i rzez wiele miesięcy stanowią 7-24% diety 3 popularnych gatunków ryb. Szacuje się, że ze względu na niskie tempo przemiany materii krokodyle nilowe spożywają tylko ok. 2% masy zwłok. Wiele migrujących stad, np. bizonów, zebry kwaggi czy skocznika antylopiego, wytępiono albo doprowadzono na skraj wyginięcia, dlatego rzeka Mara to jedno z ostatnich miejsc na Ziemi, gdzie można badać, jak utonięcia dużych zwierząt wędrownych wpływają na ekosystem wodny - podsumowuje David Post z Uniwersytetu Yale. « powrót do artykułu
  13. Firma Robert Bosch GmBH zainwestuje miliard euro w budowę fabryki półprzewodników w Dreźnie. Zakład ma stanąć do końca 2019 roku, a produkcja rozpocznie się w roku 2021. Wybudowanie fabryki będzie największą pojedynczą inwestycją w 130-letniej historii firmy. Zwiększając nasze możliwości produkcji półprzewodników, budujemy solidne podstawy dla przyszłego rozwoju i wzmocnienia firmy – stwierdził Volkmar Denner, przewodniczący zarządu Boscha. Bosch to jeden z największych na świecie sprzedawców systemów mikroelektromechanicznych (MEMS). Jak twierdzi firma analityczna Yole Developpement, w ubiegłym roku Bosch sprzedał MEMS o łącznej wartości około 1,16 miliarda USD. Obecnie niemieckie przedsiębiorstwo w fabryce w Reutlingen produkuje dziennie około 4 milionów czujników MEMS oraz 1,5 miliona układów ASIC. W fabryce w Dreźnie zatrudnienie znajdzie do 700 pracowników. Będzie ona produkowała na potrzeby szybko rozwijającego się rynku IoT (Internet of Things) oraz dla urządzeń mobilnych. Obecnie 75% produkcji MEMS Boscha trafia do urządzeń telekomunikacyjnych i elektroniki konsumenckiej. « powrót do artykułu
  14. Choć firma Japan Dome House sprzedaje swoje styropianowe domy już od 15 lat, od kwietnia zeszłego roku, kiedy to prefekturę Kumamoto nawiedziło trzęsienie ziemi o sile 7 stopni w skali Richtera, zapotrzebowanie na nie wzrosło lawinowo. Dlaczego? Po pierwsze i najważniejsze, konstrukcje w kształcie stożka są odporne na wstrząsy. Po drugie, łatwo je zbudować. Po trzecie wreszcie, za duży plus należy uznać świetne właściwości izolacyjne. W trzęsieniu ziemi w Kumamoto zginęło 49 osób. Liczba rannych przekroczyła 3 tys. Ponad 44 tys. Japończyków trzeba było ewakuować, bo ich domy się zawaliły albo zapaliły. Nadal bardzo wielu ludzi mieszka w lokalach tymczasowych. Strukturalne uszkodzenia budynków wystąpiły nie tylko w Kumamoto, ale i w sąsiedniej prefekturze Ōita. Jedynym miejscem, które nie ucierpiało, był kompleks mieszkalny Village Zone, złożony z 480 gęsto rozmieszczonych styropianowych domów. Dzięki temu potencjalni klienci mogli się przekonać, że twierdzenia Japan Dome House á propos wytrzymałości konstrukcji nie są zwykłym chwytem marketingowym. Styropianowy domek waży zaledwie ok. 80 kg. To oraz specyficzny kształt oraz brak słupów czy belek sprawia, że nawet silnie trzęsienia ziemi się go nie imają. Japan Dome House, który rocznie sprzedaje w Japonii ok. 100 domków, nie wykorzystuje zwykłego styropianu, ale jego unowocześnioną wersję. Ziarna konwencjonalnego polistyrenu są powiększane o 50-60% [...], co wiąże się z absorpcją dużych ilości tlenu. Japan Dome House opracowało [zaś] metodę, w której monomery styrenu rozszerzają się tylko o ok. 20%, co minimalizuje wchłanianie tlenu. Dzięki temu materiał jest bardziej wytrzymały, ale zachowuje właściwości izolujące. Ekipa złożona z 3-4 osób może zbudować (czytaj: skleić) dom maksymalnie w tydzień. Za konstrukcję o powierzchni 36 m2 i wysokości 3 m trzeba zapłacić od 7 do 8 mln jenów, czyli między 68.700 a 78.500 dol. Ponieważ w domku nie ma co zardzewieć czy zostać zjedzone przez termity, jest on opisywany jako wyjątkowo trwały. Japończycy przekonują, że modularne domki łatwo dostosować do swoich potrzeb i gustu. Nadają się nie tylko dla właścicieli indywidualnych, ale i na biznes, np. hotele. « powrót do artykułu
  15. Probiotyki mogą zwiększać przeżywalność pszczół miodnych wystawionych na oddziaływanie pestycydów. Wyginięcie pszczół byłoby dla ludzi katastrofalne. Obecny dylemat rolnictwa polega na tym, jak zapobiec spadkowi liczebności pszczół i jednocześnie ograniczyć straty plonów. Chcieliśmy sprawdzić, czy probiotyki przeciwdziałają toksycznemu działaniu pestycydów i zwiększają przeżywalność pszczół - wyjaśnia dr Gregor Reid z Lawson Health Research Institute (Lawson). W eksperymentach naukowcy wykorzystali muszki owocowe, znany model badania toksyczności pestycydów dla pszczół. Neonikotynoidy wpływają podobnie na oba gatunki, muszki i pszczoły mają też podobne układy odpornościowe, a w ich mikrobiomach występuje wiele tych samych bakterii. Kanadyjczycy odkryli, że u muszek wystawionych na oddziaływanie imidaklopridu (IMI), jednego z najpopularniejszych pestycydów, zachodziła zmiana mikrobiomu i stawały się one bardziej podatne na infekcje (zastosowana ilość pestycydu stanowiła odpowiednik stężeń działających zwykle na pszczoły). Okazało się, że gdy podawano pewien szczep pałeczek kwasu mlekowego - Lactobacillus plantarum ATCC 14917 - po zakażeniu pałeczką krwawą (Serratia marcescens) przeżywalność muszek stykających się z IMI była większa. Nasze badanie wykazało, że pałeczki kwasu mlekowego mogą zwiększać odporność i potencjalnie pomóc pszczołom żyć dłużej po ekspozycji na pestycydy - zaznacza Brendan Daisley i dodaje, że warto rozważyć dodawanie probiotyków np. do wilgotnych placków stanowiących substytut pyłku. Choć idealnie byłoby po prostu skończyć ze stosowaniem pestycydów, obecnie rolnicy nie mają właściwie alternatyw, by za ich pomocą utrzymać plony gwarantujące opłacalność biznesu. Do momentu, aż będziemy mogli zrezygnować z pestycydów, powinniśmy znaleźć sposoby na ochronę ludzi i dzikiej przyrody przed skutkami ubocznymi tych związków. Probiotyki wydają się [zaś] skuteczną interwencją w przypadku zespołu masowego ginięcia pszczoły miodnej - podsumowuje Reid. « powrót do artykułu
  16. Na znanym od ponad 50 lat ostrakonie zidentyfikowano i odczytano niezauważony dotychczas starożytny napis. Naukowcy z Uniwersytetu w Tel Awiwie wykorzystali najnowsze techniki obrazowania do zbadania ostrakonu, który z 1965 roku został znaleziony w ruinach pustynnego fortu Arad. Ostrakon pochodzi z około 600 roku przed Chrystusem, z okresu bezpośrednio poprzedzającego zniszczenie Królestwa Judy przez Nabuchodonozora. Ostraka były to skorupy naczyń, na których dokonywano zapisków. Wykorzystywano je głównie w starożytnej Grecji i Egipcie. Frontowa strona tego ostrakonu była szczegółowo zbadana. Strona tylna uznawana była za niezapisaną – mówi Arie Shaus, jeden z głównych autorów badań. Za pomocą obrazowania wielospektralnego otrzymaliśmy liczne obrazy, a Michael Cordonski z Wydziału Fizyki Uniwersytetu w Tel Awiwie zauważył liczne znaki za tylnej stronie ostrakonu. Ku naszemu zdziwieniu znaleźliśmy tam trzy nowe linie tekstu – dodaje Shaus. Specjalistom udało się odczytać 50 liter składających się na 17 wyrazów. Okazało się, że jest to kontynuacja tego, co zapisano na stronie frontowej. Znany dotychczas tekst rozpoczyna się od błogosławieństwa, a następnie jest mowa o transferach pieniężnych. Ter Arad był wojskowym posterunkiem, fortem na południowej granicy Królestwa Judy. Zamieszkiwało go 20-30 żołnierzy. Większość znalezionych tam ostraka pochodzi z czasów ostatniego rozdziału historii fortu, który zakończył się wraz ze zniszczeniem Królestwa w 586 roku przed Chrystusem przez babilońskiego króla Nabuchodonozora. Wiele z tych inskrypcji jest adresowanych do Eljasziwa, kwatermistrza fortu. Poruszają one kwestie logistyczne, takie jak zaopatrzenie w mąkę, wino i oliwę – powiedział doktor Mendel-Geberovich. Nowo znaleziona inskrypcja zaczyna się od prośby o wino. Jest tam też obietnica pomocy adresatowi prośby, gdyby z kolei ten miał jakieś życzenie. Kończy się zaś prośbą o zaopatrzenie pewnej niewymienionej osoby i wspomina o 'bath', starożytnej mierze wina, którą ma dostarczyć człowiek imieniem Ge'alyahu, wyjaśnia Shaus. Uczeni mówią, że każde nieznane dotychczas zdanie pozwala nam lepiej poznać życie ludzi w okresie Pierwszej Świątyni. Z szerszej perspektywy odkrycie to pokazuje, jak ważne jest obrazowanie wielospektralne podczas badań ostraka. Możemy sobie tylko wyobrazić, jak wiele ostraka zostało odrzuconych podczas wykopalisk tylko dlatego, że gołym okiem nie było widać na nich napisów – stwierdza Shira Faigenbaum-Golovin z Wydziału Matematyki Stosowanej. « powrót do artykułu
  17. Uran i Neptun nie cieszyły się dotychczas większym zainteresowaniem NASA. Obie planety zostały odwiedzone tylko raz przez pojazd wysłany z Ziemi. W obu przypadkach był to Voyager 2, który w pobliżu Urana przeleciał w 1986 roku, a w 1989 roku odwiedził Neptuna. NASA chce jednak to zmienić i niewykluczone, że w latach 30. bieżącego wieku odbędzie się kilka misji do tych planet. Preferowana misja to umieszczenie orbitera w atmosferze Urana lub Neptuna. Dostarczy to najlepszych danych naukowych, pozwoli na dogłębne zbadanie całego systemu planetarnego: pierścieni, satelitów, atmosfery i magnetosfery – mówi Amy Simon, współprzewodnicząca grupy Ice Giants Pre-Decadal Study. Specjaliści proponują odbycie czterech misji. Trzy związane byłyby z umieszczeniem orbiterów, jedna to przelot w pobliżu Urana i wykonanie zdjęć planety oraz jej księżyców. Ta misja byłaby połączona ze zrzuceniem do atmosfery próbnika, który miałby zbadać obecne tam gazy i poziomy poszczególnych pierwiastków. Każdy z planowanych orbiterów zostałby wyposażony co najmniej w aparat fotograficzny, magnetometr i urządzenie do obrazowania dopplerowskiego. Bardziej rozbudowana misja mogłaby zawierać nawet 15 instrumentów naukowych, w tym wykrywacze plazmy, urządzenia do obrazowania w podczerwieni i ultrafiolecie, wykrywacze pyłu i radar mikrofalowy. Głównymi celami misji byłoby zbadanie składu planet, określenie ich wewnętrznej struktury oraz ilości ciężkich pierwiastków. Cele dodatkowe to zbadanie pól energetycznych, pogody, klimatu, badania księżyców oraz składu pierścieni. Misja na Neptuna skupiłaby się też na badaniu jego największego księżyca, Trytona, który najprawdopodobniej został przechwycony przez planetę z Pasa Kuipera. W porównaniu z Neptunem, Uran ma znacznie większy system satelitów, które prawdopodobnie uformowały się w dysku wokół planety (podobnie jak ma to miejsce w przypadku Jowisza i Saturna). To byłaby bardzo ważna misja z punktu widzenia porównawczych badań planetarnych – mówi Jonathan Fortney z Uniwersytetu Kalifornijskiego z Santa Cruz, który opowiada się z przeprowadzeniem misji na Urana. Najlepiej byłoby jednak przeprowadzić misję do obu planet, gdyż planety wielkości Neptuna są najpowszechniej występującymi planetami i zbadanie Urana oraz Neptuna powinno pozwolić odpowiedzieć na pytanie, w jaki sposób lodowe olbrzymy różnią się od gazowych olbrzymów i dlaczego więcej jest tych pierwszych. Wspomniane misje nie byłyby jednak łatwe do przeprowadzenia. Po pierwsze trwałyby co najmniej 14 lat, a pojazdy trzeba by zasilać za pomocą energii jądrowej, gdyż w takiej odległości od Słońca nasza gwiazda nie zapewniłaby wystarczającej ilości energii. Problem w tym, że NASA ma bardzo małe zapasy plutonu-238, gdyż międzynarodowe traktaty przez wiele lat zabraniały wzbogacania plutonu. Dopiero w 2013 roku zezwolono na wzbogacenie niewielkich ilości tego pierwiastka. Jeśli jednak wszystko pójdzie dobrze, misja do Urana mogłaby wystartować w 2034 roku. Po tej dacie byłoby coraz trudniej, jednak dobre okienko startowe trwałoby jeszcze przez cały rok 2036. Trudniej będzie zorganizować misję do Neptuna. Po roku 2030 do Neptuna będzie trudno się dostać ze względu na brak asysty grawitacyjnej ze strony Jowisza. Sytuacja taka potrwa do roku mniej więcej 2041. Jeśli więc NASA planuje zorganizować powyższe misje, to o ile ekspedycję do Urana dobrze byłoby zacząć planować, to w przypadku Neptuna jest ostatni dzwonek na początek prac nad przeprowadzeniem misji. « powrót do artykułu
  18. Źrenice w oczach myszy zwężają się, gdy zwierzę jest przenoszone z ciemnego do oświetlonego pomieszczenia nawet wtedy, kiedy nie działa nerw wzrokowy. W ten sposób naukowcy z Uniwersytetu Johnsa Hopkinsa wykazali, że funkcja fotoczuła jest wbudowana w zwieracz źrenicy. Tradycyjny pogląd na odruch źreniczny jest taki, że światło uruchamia sygnał przesyłany z siatkówki do mózgu. Tam aktywowane są sygnały zwrotne przekazywane za pośrednictwem acetylocholiny, które sprawiają, że zwieracz się kurczy i zwęża źrenicę - opowiada dr King-Wai Yau. Wcześniejsze badania Yau i innych pokazały jednak, że ssaki nocne i aktywne o zmierzchu czy świcie, np. myszy, króliki, psy i koty, nie potrzebują do odruchu źrenicznego mózgu. Laboratorium Amerykanina zademonstrowało wręcz, że zwieracz kurczy się w reakcji na światło dzięki obecności światłoczułego barwnika - melanopsyny. Choć najprostsze wyjaśnienie jest takie, że sam mięsień jest wrażliwy na światło, inni naukowcy podsuwali możliwość, że w zwieraczu występują świałoczułe nerwy z melanopsyną, które korzystają z odpowiedzialnej za odruch acetylocholinowej sieci mózgowej. Yau postanowił więc sprawdzić, co będzie, gdy zablokuje się działanie acetylocholiny. Nawet po farmakologicznym zablokowaniu działania neuroprzekaźnika wyizolowany zwieracz źrenicy kurczył się w odpowiedzi na światło, co uprawomocnia twierdzenie, że sam mięsień jest światłoczuły, bo zawiera melanopsynę. W kolejnym etapie badań Amerykanie uciekli się do metod genetycznych, by wybiórczo nie dopuścić do wytwarzania melanopsyny przez mięsień. Okazało się, że w takiej sytuacji zwieracz nie reagował na światło, mimo że wpływ acetylocholiny był zachowany. W ten sposób zademonstrowaliśmy, że zwieracz źrenicy jest światłoczuły, a to bardzo niezwykła właściwość jak na mięsień. Ekipa Yau podkreśla, że miejscowy odruch źreniczny nie występuje u aktywnych w dzień niższych ssaków i u naczelnych (bez względu na porę aktywności). Szerszy obraz jest taki, że miejscowy odruch źreniczny pojawił się wcześnie u prymitywnych kręgowców, takich jak bezżuchwowce [...]. Z biegiem czasu w odruch zaangażował się mózg, ale u płazów dominujący pozostał lokalny mechanizm. Do czasu, gdy pojawiły się ssaki, miejscowy odruch stawał się coraz mniej ważny, zanikając u podnaczelnych aktywnych w ciągu dnia i u naczelnych. « powrót do artykułu
  19. Pod koniec maja ok. 15 mil morskich (28 km) na zachód od Hoek van Holland rybacy wyłowili z Morza Północnego morświna zwyczajnego (Phocoena phocoena) z dwiema dobrze rozwiniętymi głowami. To pierwszy udokumentowany przypadek bliźniąt syjamskich u P. phocoena, 4. znany przypadek parapagus dicephalus (osobnika z 2 głowami i 1 tułowiem) wśród waleni i 10. przypadek zroślaków u waleni. Rybacy sądzili, że zatrzymanie martwego morświna byłoby nielegalne, wyrzucili więc ssaka do morza. Wcześniej zrobili mu jednak zdjęcia. Autorzy publikacji z Deinsea - internetowego pisma Muzeum Historii Naturalnej w Rotterdamie - podkreślają, że liczne dowody świadczą o tym, że morświn niedawno się urodził. Płetwa grzbietowa nie była np. uniesiona, a otwór pępowinowy jeszcze się nie wygoił. Rybacy oszacowali, że zroślak mierzył ok. 70 cm i ważył co najmniej 6 kg. Budowa anatomiczna wskazywała na płeć męską. « powrót do artykułu
  20. Zespół odpowiedzialny za załogową kapsułę Orion, która posłuży do lotów załogowych w dalszych partiach kosmosu, a być może zawiezie astronautów na Marsa, rozpoczął lato od serii testów systemów bezpieczeństwa Oriona. W Promontory w stanie Utach testowano silniki ucieczkowe służące do awaryjnego przerwania startu kapsuły. System przerwania startu to ważny element, który ma upewnić nas, że załoga jest bezpieczna w czasie podróży – mówi Robert Decoursey, odpowiedzialny za system przerwania startu. Podczas testów silniki ucieczkowe ustawiono dyszami do góry i uruchomiono je na kilka sekund. Obecnie trwa analiza danych, ale jej wstępne wyniki wykazały, że silniki uruchamiają się w ciągu milisekund i dobrze wytrzymują wysokie temperatury. System przerwania startu Oriona składa się z trzech silników. W razie awarii Space Launch System zadaniem silników jest błyskawiczne oddzielenie kapsuły od SLS, jej szybkie oddalenie się i bezpieczne lądowanie. W tym samym czasie w Arizonie na poligonie US Army przeprowadzono testy spadochronów Oriona. W czasie lądowania Orion wykorzysta 11 spadochronów, które rozwiną się w precyzyjnie dobranej sekwencji, spowolnią kapsułę i pozwolą jej bezpiecznie opaść na powierzchnię Pacyfiku. System spadochronów opracowano tak, by zapewnić załodze bezpieczeństwo nawet w przypadku awarii, która spowoduje, iż nie będzie czasu na przeprowadzenie całej sekwencji rozwijania spadochronów. Dlatego też podczas najnowszych testów makietę Oriona wyrzucono z wysokości 7,6 kilometra i testowano jej lądowanie z rozwiniętymi trzema spadochronami głównymi. Testowano w ten sposób pracę spadochronów rozłożonych na małej wysokości i przy niskim ciśnieniu dynamicznym. Testujemy spadochrony we wszystkich możliwych sytuacjach – zapewniła Yasmin Ali, odpowiedzialna za systemy lądowania Oriona. Trzeci rodzaj testów odbywa się właśnie w Neutral Buoyancy Lab w Johnson Space Center. Eksperci sprawdzają tam system ośmiu poduszek powietrznych, których zadaniem jest utrzymanie Oriona na wodzie w odpowiedniej pozycji. Poduszki mają działać tak, by Orion utrzymał się na powierzchni oceanu nawet przy niesprzyjającej pogodzie i by miał przy tym prawidłową pozycję, nawet gdyby w czasie powrotu na Ziemię odwrócił się do góry nogami. Na razie poduszki testowane są w basenie, a pod koniec lata będą testowane na wodach Zatoki Meksykańskiej. « powrót do artykułu
  21. Skoncentrowany wyciąg z kiełków brokuła może pomóc pacjentom z cukrzycą typu 2. utrzymać prawidłowy poziom cukru. Cukrzyca typu 2. występuje u ponad 300 mln osób na świecie. Ze względu na ryzyko uszkodzenia nerek aż 15% z nich nie może jednak przyjmować metforminy. Szukając rozwiązania dla tej grupy chorych, zespół Anniki Axelsson z Centrum Diabetologicznego Uniwersytetu w Lund porównywał ekspresję genową chorej tkanki z sygnaturami substancji, które potencjalnie mogłyby zostać lekarstwami. W oparciu o 50 genów autorzy publikacji z pisma Science Translational Medicine stworzyli sygnaturę cukrzycy typu 2. dla tkanki wątroby (to tutaj zachodzi bowiem glukoneogeneza, czyli enzymatyczny proces przekształcania niecukrowcowych prekursorów, np. aminokwasów, w glukozę). Następnie przeanalizowali bibliotekę 3852 związków, które potencjalnie mogłyby odwrócić chorobę. Najlepiej wypadł sulforafan - izotiocyjanian występujący w warzywach krzyżowych, głównie brokułach. Okazało się, że hamował on produkcję glukozy w hodowlach hepatocytów i poprawiał tolerancję glukozy u szczurów na dietach wysokotłuszczowej i wysokofruktozowej. Oprócz tego 12-tygodniowe testy kliniczne z losowaniem do grup i placebo wykazały, że zawierający sulforafan wyciąg z kiełków brokuła był dobrze tolerowany i poprawiał stężenie glukozy na czczo oraz poziom hemoglobiny glikowanej HbA1C u pacjentów z otyłością i nieuregulowaną cukrzycą typu 2. « powrót do artykułu
  22. Dzięki badaniu krwi pacjentów przy wykorzystaniu spektroskopii ramanowskiej będzie można wykrywać we wczesnym stadium guzy nowotworowe – wykazała dr n med. Edyta Wolny-Rokicka z Wojewódzkiego Wielospecjalistycznego Szpitala w Gorzowie Wielkopolskim. Dr Wolny-Rokicka wraz z Alicją Defort z Parku Naukowo-Technologicznego Uniwersytetu Zielonogórskiego (PNT UZ) za pomocą spektrometru Ramana przeprowadziły serię badań płytek krwi pacjentów chorych na raka płuca. Próbki pobierano przed i po zabiegu operacyjnym, przed i po radykalnym leczeniu promieniami, od pacjentów z rozsianą chorobą nowotworową oraz – dla porównania – od zdrowych ochotników. Metoda spektroskopii ramanowskiej umożliwia badanie układów biologicznych oraz identyfikację zmian zachodzących na poziomie chemicznych w komórkach czy tkankach. Na podstawie intensywności pasm oraz ich położenia można określać zmiany zachodzące na poziomie komórkowym wykorzystując światło lasera, które oddziałuje z materią. W przypadku próbek badanych w Zielonej Górze chodziło o p-selektynę, białko-molekułę adhezyjną umiejscowioną w ziarnistościach płytek krwi i komórek śródbłonka naczyń. Gdy pojawia się guz, w którym rozwijają się liczne nieprawidłowe naczynia krwionośne, poziom p-selektyny wzrasta. Zdaniem dr Wolny-Rokickiej, oznaczana metodą spektroskopii Ramana p-selektyna może być potencjalnym markerem, pozwalającym wykrywać we wczesnym stadium obecność guzów nowotworowych, oceniać postępy terapii i rokowanie pacjenta. Być może znajdzie w przyszłości zastosowanie w badaniach przesiewowych. Planowane są dalsze badania prowadzone na większej liczbie osób, z różnymi rodzajami nowotworów. « powrót do artykułu
  23. Lekarze oraz osoby, u których zdiagnozowano raka jelita grubego, mogą teraz skorzystać z udostępnionego w sieci kalkulatora, który szacuje pozostały czas życia. Kalkulator pozwala też na podjęcie decyzji co do dalszego leczenia, gdyż pokazuje, jak na przedłużenie życia może wpłynąć odpowiednia terapia. „QCancer Colorectal Survival” został opracowany przez naukowców z University of Nottingham i firmę ClinRisk. W British Medical Journal opublikowano wyniki badań nad wiarygodnością kalkulatora. Okazuje się, że narzędzie potrafi z dużą dokładnością oszacować pozostały czas życia zarówno dla mężczyzn jak i kobiet. Autorzy kalkulatora, profesorowie Julia Hippisley-Cox i Carol Coupland, wykorzystali dane ponad 44 000 pacjentów z 947 przychodni i na ich podstawie stworzyli osobne algorytmy do szacunków dla kobiet i mężczyzn w wieku od 15 do 99 lat. Gotowy już kalkulator wykorzystano do retrospektywnego obliczenia czasu życia dla około 450 000 pacjentów. Wynik eksperymentu wykazał, że Hippisley-Cox i Coupland stworzyły bardzo solidny model, który nie tylko przewiduje długość życia pacjenta, ale pokazuje też, jak ryzyko śmierci zmienia się w czasie, co jest szczególnie ważne w przypadku pacjentów, u których nowotwór został późno zdiagnozowany. Obecne metody są zwykle mało wiarygodne i pacjenci dostają często myląc, zbyt pesymistyczne prognozy bazujące jedynie na stopniu rozwoju nowotworu. Okazuje się jednak, że żyją oni znacznie dłużej. Do prawidłowych prognoz potrzebne są też inne dane. Dobra wiadomość jest taka, że nasz kalkulator daje lekarzom i pacjentom bardziej realistyczną ocenę sytuacji. Rozumiemy, że nie każdy będzie chciał skorzystać z kalkulatora i poznać prognozy, ale są pacjenci, który bardzo chętnie to zrobią – mówi Hippisley-Cox. Kalkulator bierze pod uwagę m.in. zastosowane metody leczenia, wiek w momencie diagnozy, przebyte choroby, przyjmowane leki, BMI pacjenta czy oraz fakt, czy jest on palaczem czy nie. I tak na przykład dowiemy się, że 38-letnia kobieta, u której diagnozowano nowotwór jelita grubego 4. stopnia ma 6% szans na przeżycie kolejnych 5 lat jeśli nie podda się żadnemu leczeniu. Jeśli zdecyduje się na samą chirurgię, to jej szanse wyniosą 23%, a przy chirurgii i chemioterapii wzrosną do 45%. Jeśli zaś podda się obu rodzajom leczenia i przeżyje rok od diagnozy, to jej szanse na przeżycie kolejnych 5 lat wyniosą już 57%. Autorki kalkulatora chcą go w przyszłości dostosować również do innych rodzajów nowotworów. « powrót do artykułu
  24. Amerykańscy naukowcy stworzyli nową grupę związków, które zwiększają pigmentację skóry (czytaj: opaleniznę) bez szkodliwych skutków promieniowania ultrafioletowego. Najnowsze badanie zespołu z Massachusetts General Hospital (MGH) i Dana-Farber Cancer Institute (DFCI) stanowi pokłosie studium z 2006 r., kiedy to zidentyfikowano szlak molekularny odpowiedzialny za opalanie i wywołano taką reakcję u szczepu myszy, który normalnie nie wytwarzał ochronnej (ciemnej) melaniny. Aktywacja szlaku pigmentacyjnego przez tę nową klasę związków drobnocząsteczkowych przebiega fizjologicznie tak samo, jak w przypadku UV, tyle że bez uszkadzających DNA skutków ultrafioletu. Musimy przeprowadzić badania dot. bezpieczeństwa [...] i lepiej zrozumieć działanie tych czynników - podkreśla dr David E. Fisher. W opublikowanym w 2006 r. w Nature badaniu ekipa Fishera wykorzystała związek zwany forskoliną, by wywołać opaleniznę u szczepu myszy z rudymi włosami, u którego za pomocą inżynierii genetycznej zaburzono szlak prowadzący do wytwarzania melaniny. Ponieważ forskolina aktywuje białko z dalszych jego etapów, udało się w ten sposób obejść problem i doprowadzić do wytworzenia ochronnej eumelaniny. Dalsze testy forskoliny i substancji pokrewnej na próbkach ludzkiej skóry nie dały jednak pozytywnych rezultatów (naukowcy uważają, że powodem może być to, że ludzka skóra jest ok. 5-krotnie grubsza od mysiej). Co ważne, w ramach wcześniejszych badań Japończycy wykazali, że zahamowanie ekspresji kinaz indukowanych solami (ang. salt-inducible kinases, SIK), które regulują transkrypcję na jeszcze dalszych etapach szlaku, aktywuje pigmentację u myszy. Mając to na uwadze, Amerykanie przeprowadzili wstępne eksperymenty ze znanym wcześniej inhibitorem SIK na tym samym szczepie rudych myszy, co w 2006 r. Okazało się, że przy jego codziennym stosowaniu po kilku dniach skóra stawała się niemal czarna. Po zaprzestaniu aplikowania środka zaciemnienie stawało się coraz słabsze. Ponieważ jednak, podobnie jak forskolina, inhibitor w niewielkim stopniu oddziaływał na ludzką skórę (zapewne przez ograniczoną penetrację), akademicy z MGH zwrócili się z prośbą o pomoc do zespołu dr. Nathanaela Graya z DFCI. Ekipa Graya stworzyła nową klasę inhibitorów SIK, która została przetestowana w laboratorium Fishera. Okazało się, że związki te znacznie lepiej penetrowały próbki ludzkiej skóry i dawały spore zaciemnienie w ciągu 8 dni miejscowego stosowania. Mikroskopowa analiza hodowli potwierdziła, że wytworzyła się eumelanina, która odłożyła się w pobliżu powierzchni skóry (to wzorzec typowy dla pigmentacji wywołanej UV, co sugeruje, że aktywowano ten sam szlak). Tłumacząc, co w ogóle zaszło, naukowcy z MGH i DFCI opowiadają, że SIK regulują czynnik transkrypcyjny związany z mikroftalmią (ang. microphthalmia associated transcription factor, MITF). MITF pełni zaś rolę głównego regulatora melanogenezy na poziomie transkrypcyjnym w odniesieniu do melanosomów – indukuje ekspresję genów odpowiedzialnych za biogenezę, dojrzewanie i transport melanosomów. Drobnocząsteczkowe inhibitory SIK Amerykanów zwiększają zaś aktywność MITF oraz melanogenezę. Akademicy mają nadzieję, że w przyszłości ich ustalenia zapobiegną wielu nowotworom skóry oraz jej przedwczesnemu starzeniu. « powrót do artykułu
  25. Po raz kolejny okazuje się, że zwiększenie konkurencyjności prowadzi do znacznego obniżenia cen. Tym razem widzimy to w przemyśle kosmicznym pracującym na zlecenie amerykańskich Sił Powietrznych. W 2014 roku US Government Accountability Office (GAO) opublikowało raport dotyczący szacunkowych kosztów, jakie ponoszą US Air Force w związku z wynoszeniem w przestrzeń kosmiczną ładunków związanych z bezpieczeństwem narodowym. Wówczas jedynym partnerem USAF było konsorcjum United Launch Alliance (ULA) założone przez Lockheed Martina i Boeinga. W raporcie GAO krytykowało brak przejrzystości dotyczących ustalania cen przez ULA. Zauważono też, że strona rządowa nie miała informacji, które pozwoliłyby negocjować jej "uczciwe i rozsądne ceny". ULA było monopolistą, miało więc bardzo silną pozycję. Mniej więcej w czasie powstawania raportu firma SpaceX rozpoczęła starania o zyskanie kontraktów od USAF. Przedsiębiorstwo twierdziło, że oferuje znacznie niższe ceny niż ULA, jednak, z powodu wspomnianego braku przejrzystości, trudno było coś szczegółowo na ten temat powiedzieć. Brak przejrzystości wynikał z faktu, że rząd USA płacił ULA zarówno stałą cenę za same starty – a do nich używano rakiet Atlas V, Delta IV oraz Delta IV Heavy – a dodatkowo płacono też pieniądze w ramach tzw. kontraktu ELC. Kontrakt ELC zobowiązuje ULA do zachowywania „gotowości startowej” na potrzeby narodowego bezpieczeństwa. Krytycy takiego rozwiązania twierdzili, że w sytuacji, gdy SpaceX oferuje starty za pomocą rakiety Falcon 9, to kontrakt ELC jest niczym innym, jak nieuzasadnionymi naruszającymi swobodę konkurencji subsydiami dla ULA. Od bieżącego roku można w końcu zacząć porównywać koszty, gdyż nowe zasady mówią, że od roku 2020 USAF musi wszelkie koszty związane z lotami kosmicznymi umieszczać w tej samej pozycji budżetowej. Siły Powietrzne opublikowały właśnie szacunki swojego budżetu na lata 2018-2021. Okazuje się, że korzystanie z usług ULA jest wyjątkowo drogie. USAF szacuje bowiem, że w roku 2020 koszt pojedynczego lotu wraz z ELC wyniesie 422 miliony dolarów, a rok później będzie to 424 miliony. Z rozmów dziennikarzy z ekspertami wynika, że kwota ta to najprawdopodobniej maksimum kosztów szacownych przez USAF przy założeniu, że wszystkie loty (jest ich średnio sześć rocznie) zostaną wykonane przez ULA. Jest to kosz uśredniony, gdyż usługi byłyby wykonywane w większości za pomocą rakiet Atlas V (na rynku komercyjnym start takiej rakiety jest sprzedawany za kwotę około 100 milionów USD) oraz za pomocą rakiet Delta, których loty na rynku komercyjnym kosztują nawet 350 milionów dolarów w wariancie Delta IV Heavy. Na szczęście dla amerykańskich podatników monopol ULA się skończył i w maju bieżącego roku SpaceX wystrzeliła pierwszy ładunek związany z bezpieczeństwem narodowym – satelitę szpiegowskiego należącego do National Reconnaissance Office. Już wcześniej, bo w pierwszej połowie ubiegłego roku SpaceX otrzymało od USAF zlecenie na wyniesienie satelity GPS 3. Podpisany kontrakt opiewa na 83 miliony dolarów i jest to całość kosztów. W marcu bieżącego roku podpisano umowę na wyniesienie kolejnego satelity GPS 3. USAF zapłaci za to 96,5 miliona dolarów. Widzimy więc kolosalną różnicę kosztów pomiędzy średnią ceną ULA wynoszącą ponad 400 milionów USD, a ceną oferowaną przez SpaceX. Rzeczywista różnica w cenie nie jest aż tak spektakularna. Trzeba bowiem pamiętać, że średnią ULA znacznie zawyża wykorzystanie rakiet Delta IV Heavy. Tymczasem do wystrzelenia wspomnianych satelitów z pewnością zostałyby użyte wielokrotnie tańsze Atlas V. Jednak mimo to wojskowi oceniają, że dzięki SpaceX oszczędności na tych lotach sięgną 40%. Na rynku prywatnym SpaceX oferuje starty Falcona 9 za 65 milionów dolarów. Jednak wystrzeliwanie ładunków wojskowych wiąże się z kolejnymi kosztami i umowami, które mogą zwiększać cenę o kolejne dziesiątki milionów dolarów. Różnica pomiędzy cenami ULA i SpaceX jest olbrzymia. Tak wielka, że można podejrzewać, iż SpaceX znacząco obniża cenę i być może nawet nie zarabia na kontraktach dla USAf, żeby tylko zdobyć rynek zleceń wojskowych. Niezależnie jednak od motywacji i działań SpaceX trzeba przyznać, że wygrywa na tym klient oraz podatnik, który płaci znacznie mniej za tę samą usługę. « powrót do artykułu
×
×
  • Dodaj nową pozycję...