Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36970
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    226

Zawartość dodana przez KopalniaWiedzy.pl

  1. W pierwszym tego typu badaniu naukowcy porównali empatię narodów z całego świata. Na pierwszym miejscu uplasował się Ekwador, na drugim i trzecim, odpowiednio, Arabia Saudyjska i Peru, podczas gdy USA zajęły 7. pozycję. Autorzy raportu z Journal of Cross-Cultural Psychology przeanalizowali wyniki online'owego kwestionariusza, na który odpowiedziało nieco ponad 100 tys. osób (104.365). Respondentów pytano o współodczuwanie oraz zdolności w zakresie wyobrażania sobie punktu widzenia innych ludzi. Kraje z niedużą próbą, w tym większość państw afrykańskich, wykluczono z analizy. Ostatecznie sporządzono ranking 63 krajów. Oto jak prezentuje się pierwsza dziesiątka najbardziej empatycznych krajów: Ekwador, Arabia Saudyjska, Peru, Dania, Zjednoczone Emiraty Arabskie, Korea, USA, Tajwan, Kostaryka i Kuwejt. Jeden ze współautorów publikacji, William Chopik z Uniwersytetu Stanowego Michigan, podkreśla, że biorąc pod uwagę długą historię agresji i wojen z państwami w regionie, był bardzo zaskoczony, że na wysokich pozycjach w rankingu uplasowały się aż 3 kraje ze Środkowego Wschodu. Wg niego, przyczyną jest nieróżnicowanie przez kwestionariusz empatii w stosunku do obywateli innych i własnego państwa. Najmniej empatycznym krajem okazała się Litwa. Generalnie aż 7 krajów z ostatniej dziesiątki rankingu to kraje europejskie. Chopik, Ed O'Brien z Uniwersytetu Chicagowskiego i Sarah Konrath z Indiana University ustalili ponadto, że w krajach z wyższą empatią występuje większe nasilenie kolektywizmu, ugodowości, sumienności, samooceny, emocjonalności, subiektywnego dobrostanu i zachowań prospołecznych. Odnosząc się do wyniku swoich rodaków, Chopik wyjaśnia, że w ostatnich dekadach Amerykanie bardzo się zmienili, co doprowadziło do silniejszej koncentracji na sobie niż na innych. Ludzie mają większy problem niż kiedykolwiek dotąd z tworzeniem znaczących bliskich relacji. USA zajmują więc 7. pozycję na liście, ale w zależności od tego, jak zmieni się społeczeństwo w kolejnych 20-50 latach, możemy być świadkami dalszych spadków albo wzrostu. W 2011 r. ukazało się badanie O'Briena i Konrath, które pokazywało, że w ciągu 20 lat studenci college'u stali się mniej empatyczni. Za potencjalnie istotne czynniki uznano wzrost popularności mediów społecznościowych, nasilenie przemocy i znęcania się, zmianę praktyk rodzicielskich i wzrost oczekiwania sukcesu. Pierwsze badanie empatii w kontekście międzykulturowym jest bardzo ważne, ale jak dodaje Chopik, to tylko uchwycenie zjawiska w danym momencie, bo kultura ciągle się zmienia. « powrót do artykułu
  2. W połowie lat 90. oszacowano, że w obserwowalnym wszechświecie znajduje się około 120 miliardów galaktyk. Szacunki oparto głównie na przeprowadzonych w 1996 badaniach Hubble Deep Field. W ich ramach naukowcy przez 10 dni obserwowali niewielki wycinek nieba, zarejestrowali galaktyki odległe nawet o 12 miliardów lat i ekstrapolowali wyniki na cały wszechświat. Uzyskali wynik około 120 miliardów galaktyk. Od początku jednak wiedziano, że Hubble nie zarejestrował wszystkich możliwych do zaobserwowania galaktyk. W 2009 roku NASA udoskonaliła teleskop i przeprowadzono kolejne badania, dzięki którym zauważono galaktyki odległe nawet o 13 miliardów lat świetlnych. Wzięli też pod uwagę możliwość istnienia galaktyk na tyle małych i słabo świecących, że teleskopy ich nie widzą. Najnowsze szacunki dotyczące liczby galaktyk we wszechświecie mówią o... 2 bilionach tego typu obiektów. Steven Finkelstein, astronom z University of Texas, mówi, że szacunki dokonane m.in. przez Christophera Consliece z University of Nottingham nie są przesadzone. Sam Consliece stwierdza, że zdaniem teoretyków galaktyk może być jeszcze więcej. Niewykluczone, że w niedalekiej przyszłości szacunki staną się jeszcze bardziej dokładne. Obecnie jesteśmy w stanie bezpośrednio obserwować około 10% ze wspomnianych 2 bilionów galaktyk. Jednak za dwa lata w przestrzeń kosmiczną ma trafić Teleskop Kosmiczny Jamesa Webba, który zajrzy jeszcze głębiej w kosmos. Najnowsze szacunki są zgodne z teorią mówiącą, że początkowo galaktyki są niewielkie, a później zaczynają się łączyć i powstają duże galaktyki. Możliwe zatem, że wiele galaktyk uwzględnionych w najnowszych badaniach już nie istnieje. Pochodzące z nich światło podróżowało do nas bardzo długo i liczne obserwowane przez Hubble'a galaktyki mogą od dawna być już częścią galaktyk większych. Stąd też rzeczywista liczba obecnie istniejących galaktyk może być znacznie mniejsza niż wspomniane 2 biliony. « powrót do artykułu
  3. Naukowcy w Uniwersytetów w Sussex i Bristolu wykorzystali fale dźwiękowe do uniesienia wielu kolorowych niewielkich kulek, a następnie manipulowali nimi za pomocą pól elektrycznych. W ten sposób uzyskali unoszące się w powietrzu piksele, z których można tworzyć obrazy. Nowa technologia, zwana JOLED, zostanie zaprezentowana w bieżącym tygodniu podczas konferencji w Japonii. Stworzyliśmy w powietrzu wyświetlacz z unoszącymi się swobodnie pikselami. Każdy z pikseli może być w kontrolowany sposób obrócony, dzięki czemu możemy uzyskać różne kolory i obrazy. Otwiera to nowe możliwości, gdzie komputery i mobilne wyświetlacze będą mogły zostać rozszerzone na trójwymiarowe środowisko ponad wyświetlaczem - mówi profesor Sriram Subramanian z University of Sussex. Fizyczne piksele są unoszone w powietrzu za pomocą zestawu miniaturowych głośników ultradźwiękowych, a można nimi manipulować dzięki zmianom pola elektrycznego generowanego przez niewielkie elektrody. JOLED można opisać jako lewitujący e-ink, który może zmieniać kształt - mówi doktor Deepak Sahoo z Sussex. Najbardziej ekscytującym aspektem naszych badań jest udowodnienie, że możliwe jest skonstruowanie w pełni funkcjonalnego wyświetlacza stworzone z wielkiej liczby niewielkich unoszących się w powietrzu przedmiotów. Myślimy o pikselach jako o niewielkich kwadratach zdolnych do zmiany koloru, które są powiązane z wyświetlaczem. JOLED zmienia naszą percepcję, pokazując, że mogą istnieć fizyczne piksele unoszące się w powietrzu. W przyszłości mogą dzięki temu powstać złożone trójwymiarowe obrazy zbudowane z pikseli, które będzie można dotknąć - stwierdza Asier Marzo z University of Bristol. « powrót do artykułu
  4. Południowoamerykański Naspers sprzedał Allegro i Ceneo. Nabywcami, którzy wyłożyli łącznie 3,25 miliarda dolarów, są fundusze private equity Cinven, Mid Europa Partners i Permira. Jak czytamy w oficjalnym oświadczeniu Naspera decyzja o sprzedaży Grupy Allegro jest spójna ze strategią Grupy, której celem jest jej zwieszenie wartości dla akcjonariuszy. Od czasu do czasu Grupa wycofuje się z wcześniejszych inwestycji by zrealizować zysk na zainwestowanym kapitale, a Allegro jest dobrym tego przykładem. Napster pozostaje obecny w Polsce poprzez swoje pozostałe aktywa (OLX, PayU, Otomoto i Otodom) i będzie nadal je rozwijał w celu uzyskania w przyszłości odpowiednich zwrotów z kapitału. O sprzedaniu Allegro mówiono już od miesięcy. Zainteresowane nabyciem polskiego portalu były ponoć Alibaba oraz eBay. Naspers otrzymał jednak wyjątkowo atrakcyjną ofertę od grupy funduszy private equity i teraz Allegro trafi w ich ręce. Jednym z nowych właścicieli Allegro jest Cinven. To założony przed 40 laty fundusz z siedzibą główną w Londynie. Inwestuje on w usługi dla biznesu, nowoczesne technologie, firmy telekomunikacyjne i media czy w usługi zdrowotne. Nabywa europejskie firmy, które wymagają inwestycji rzędu co najmniej 100 milionów euro. Obecnie Cinven zarządza aktywami o łącznej wartości 10,6 miliarda euro. Drugi z właścicieli Allegro, Mid Europa Partners, to brytyjska firma powstała w 1999 roku. Jej inwestycje koncentrują się na Europie Środkowej i Wschodniej. Zwykle inwestuje w firmy o wartości 100-500 milionów euro których zakup wymaga wydatkowania 75-200 milionów euro. Mid Europa zarządza aktywami o wartości około 2 miliardów euro. Permira, trzeci z funduszy, który zainwestował w Allegro, również pochodzi z Wielkiej Brytanii. Firma została założona w 1985 roku i inwestuje na rynku usług finansowych, opieki zdrowotnej, technologii, przemysłowym i konsumenckim. Permira zarządza aktywami o wartości 30 miliardów euro. « powrót do artykułu
  5. Glukometry zrewolucjonizowały monitoring cukrzycy. Dotąd jednak nie ma analogicznych rozwiązań dla pacjentów, które pozwalałyby szybko i łatwo diagnozować zawał serca. Przełomem może być urządzenie zespołu bioinżynierów z Uniwersytetu Teksańskiego w Dallas. Początek objawów zawału serca jest zazwyczaj stopniowy; trwa parę minut. Dla kogoś, kto może go mieć, każda sekunda do diagnozy i wdrożenia leczenia jest na wagę złota - podkreśla dr Shalini Prasad. Prasad i Nandhinee Radha Shanmugam opracowały elastyczny i mechanicznie stabilny jednorazowy czujnik do monitorowania poziomu krążących białek, które są uwalniane z uszkodzonego mięśnia sercowego na początku zawału. Panie przypominają, że wzrost stężenia troponin obserwuje się po około 4–8 godzinach od zawału, a powrót do prawidłowych wartości następuje przeważnie w ciągu 10 dni. Niskie poziomy troponiny we krwi kapilarnej korelują z wyższym stężeniem we krwi tętniczej, dlatego Amerykanki skupiły się na wykrywaniu ich ultraniskich poziomów w niewielkich objętościach krwi z palca. Zespół Prasad wyposażył elektrody z tlenku cynku w specjalne nanostruktury. Poprawiają one wiązanie troponin do powierzchni elektrody, co sprawia, że urządzenie jest bardzo wrażliwe. Nasza technika uzyskiwania tych nanostruktur na powierzchni różnych substratów otwiera nowy i ekscytujący kierunek badań w dziedzinie elektrochemicznego biowykrywania innych biomolekuł, np. glukozy, cholesterolu czy kwasu moczowego - podsumowuje Prasad. « powrót do artykułu
  6. Przed 56 milionami lat, ledwie 10 milionów po tym, jak w Ziemię uderzyła asteroida przyczyniając się do zagłady dinozaurów, na naszej planecie doszło do szybkiego wzrostu dwutlenku węgla i globalnego ocieplenia. W czasie paleoceńsko-eoceńskiego maksimum termicznego (PETM) średnie temperatury na Ziemi wzrosły o 5-8 stopni w ciągu 20 000 lat. Nie wiadomo jednak, jaka była przyczyna uwolnienia się CO2 do atmosfery i związanego z tym ocieplenie. Podczas niedawnego spotkania Stowarzyszenia Geologicznego Ameryki zaprezentowano pracę, opublikowaną obecnie w Science, której autorzy twierdzą, że PETM zostało spowodowane przez uderzenie w Ziemię niewielkiej komety. Hipoteza o uderzeniu komety jest oparta na znalezionych w osadach szklistych ciemnych mikrotektytów, których występowanie powiązane jest z uderzeniami w Ziemię przedmiotów pochodzących z przestrzeni kosmicznej. Mikrotektyty znaleziono w osadach u wybrzeża New Jersey. Odkrycia dokonał geochemik z Rensselaer Polytechnic Institute Morgan Schaller, który wraz ze swoją studentką Morgan Fung postanowili datować osady. Przyglądali się pobranemu materiałowi w poszukiwaniu skamieniałości otwornic, wykorzystywanych do datowania materiału. Jednak zamiast otwornic trafili na miniaturowe ślady uderzenia obiektu w powierzchnię naszej planety. Najbardziej zdumiewający jest fakt, że osady te były wielokrotnie badane i nikt dotychczas nie zauważył tego, co Schaller i Fung. Uczeni są przekonani, że materiał, o którym mowa, nie pochodzi z wulkanu. Zawiera bowiem mniej niż 0,03% wody i znajdują się w nim inkluzje z kwarcu szokowego, które są charakterystyczne dla uderzenia. Skład chemiczny materiału jest różny od mikrotektytów z innych znanych uderzeń. Nie wszyscy są przekonani do interpretacji Schallera i Fung. Jerry Dickens, oceanograf z Rice University uważa, że mikrotektyty były obecne już w czasie, gdy rozpoczynało się PETM. Było ich bardzo dużo i pochodziły z wcześniejszych uderzeń. Jednak gdy trwało PETM, w ocieplającym się świecie przyspieszyła erozja, w okolicy dzisiejszego New Jersey gromadziły się osady bogate w węgiel i tlen. To z kolei przyczyniło się do rozwoju mikoorganizmów, które rozłożyły węgiel oraz mikrotektyty. Dlatego też nie ślady uderzeń nie występują w starszych warstwach, z czasów, gdy rzeczywiście doszło do uderzeń i pojawienia się mikrotektytów. Odkryciem jest jednak podekscytowany Birger Schmitz, geolog ze szwedzkiego Lund University. Jego zdaniem bardzo prawdopodobne, że obecność mikrotektytów wskazuje na uderzenie komety na początku PETM. Jednak, jak zauważa, przedstawione dowody wskazują, że nie było to olbrzymie zderzenie. Średnica kometa nie przekraczała kilku kilometrów, a to nie powinno spowodować zmian w skali globalnej. Nie wiem, w jaki sposób niewielka asteroida mogła spowodować PETM - stwierdził Schmitz. Jego zdaniem jedynym możliwym wyjaśnieniem jest przyjęcie, że asteroida upadła w miejscu bogatym w węgiel, np. w naturalny zbiornik ropy. Inni uczeni przypominają, że rdzenie z New Jersej były pobierane za pomocą wierteł obrotowych, a taka metoda wprowadza wiele zanieczyszczeń. Dlatego też bardzo ważne jest precyzyjne datowanie znalezionego materiału. Wciąż zatem nie wiemy, co spowodowało PETM. Jeśli jednak doszło do uderzenia niewielkiej asteroidy, to mogła ona zapoczątkować całą serię wydarzeń, które w efekcie doprowadziły do zmian w skali globalnej. « powrót do artykułu
  7. W surowicy krwi delfinów występują bardzo wysokie stężenia pewnego przeciwutleniacza - cysteaminy. Dr Michael Janech z Uniwersytetu Medycznego Południowej Karoliny mówi, że był zaskoczony wynikami i podekscytowany tym, jak można je wykorzystać w przypadku ludzi. Delfiny przeżywają bez szwanku nawet 90-min nurkowanie, podczas którego zabezpieczają potrzeby mózgu, ograniczając dopływ krwi do narządów - nerek, wątroby, serca i płuc. Kiedy się wynurzają, po przywróceniu krążenia nie rozwija się u nich zespół poreperfuzyjny (wolne rodniki nie uszkadzają organów). Janech chciał sprawdzić, czemu się tak dzieje, dlatego posłużył się proteomiką. Analiza wszystkich białek naraz nie była łatwa, bo "choć liczba wariantów protein wynosiła ponad 100 tys., w grę wchodziły jeszcze ich modyfikacje. W ten sposób mieliśmy ponad milion różnych wariantów". By sobie z tym poradzić, Amerykanie zastosowali spektrometrię masową wysokiej rozdzielczości. Podczas wcześniejszych badań Janech zauważył, że niektóre delfiny z Programu Ssaków Morskich marynarki USA żyją o wiele dłużej od dzikich pobratymców. Z biegiem lat rozwija się u nich insulinooporność i stłuszczenie wątroby, co odpowiada zespołowi metabolicznemu u ludzi. Próbując wyjaśnić to zjawisko, Janech rozpoczął współpracę ze Stephanie Venn-Watson, ekspertem od delfinów marynarki, i Randallem Wellsem, specjalistą od biologii dzikich delfinów. Dzięki finansowaniu Office of Naval Research zespół zaczął badać adiponektynę w surowicy 2 populacji delfinów butlonosych: marynarki i dzikich (adiponektyna wpływa na szereg procesów metabolicznych, pośrednio oddziałując na wrażliwość na insulinę). Chcąc wiedzieć, jak ma się to do ludzkiego zespołu metabolicznego, dodatkowo naukowcy przeprowadzili proste analizy proteomiczne próbek surowicy delfinów i ludzi. Biorąc pod uwagę, że główne białka są stałe u różnych gatunków ssaków, trio zakładało, że najwyższe stężenie białek będzie u obu gatunków podobne. Tymczasem okazało się, że zawartość 11 białek była u delfinów co najmniej 100-krotnie większa. Na początku Janech, Venn-Watson i Wells przypisali to różnicom w pochodzeniu genetycznym. W pewnym momencie ewolucji część ssaków oddzieliła się bowiem i rozwinęła w parzystokopytne, podczas gdy inne stały się naczelnymi. Delfiny butlonose są zaś potomkami tych pierwszych. Badania proteomu surowicy świni (zwierzęcia parzystokopytnego) i delfina ponownie jednak zaskoczyły, bo okazało się, że nadal występują 100-krotne różnice w zakresie 5 białek, w tym adiponektyny i waniny-1. O ile wiadomo, że poziomy adiponektyny u delfinów są wyższe, by kontrolować magazynowanie glukozy w czasie żerowania, o tyle wysoka wanina-1 to coś nowego (poziom waniny u delfinów wynosił 31–106 μg/ml, a to 20–1000 razy więcej niż u zdrowego człowieka). Co istotne, nadmiernie wysokie stężenia waniny-1 korelowały z pogorszoną funkcją wątroby. Sugeruje to, że ma ona chronić przed zespołem metabolicznym. Janech, Venn-Watson i Wells uważają, że może chodzić o jeszcze jedną rzecz. Wanina odpowiada bowiem za produkcję witaminy B5 i robiąc to, uwalnia silny przeciwutleniacz (cysteaminę), który chroni tkanki przed uszkodzeniem, np. pod wpływem niedotleniania czy reprefuzji/reoksygenacji. Obecnie zespół Janecha zbiera próbki różnych nurkujących i nienurkujących ssaków morskich, a także ssaków lądowych. Amerykanie mapują ich proteomy. Po wszystkim okaże się, czy zdobycze ewolucyjne innych zwierząt da się wykorzystać, by zapobiec np. ostremu uszkodzeniu nerek u ludzi. « powrót do artykułu
  8. Niemcy i Chiny przekonały się, że do wykorzystania energii odnawialnej nie wystarczy zbudowanie wiatraków i paneli słonecznych. Niemiecka agencja rządowa, która zarządza sieciami przesyłowymi, opracowała plan zmniejszenie inwestycji w turbiny wiatrowe. Powstają one masowo na północy kraju, by dostarczyć energię rozwijającemu się południu. Jednak ostatnimi czasy rząd musiał płacić właścicielom turbin wiatrowych za zmniejszenie mocy, gdyż sieci przesyłowe nie wytrzymywały obciążenia. Podobna sytuacja ma miejsce w Chinach. W Państwie Środka zbudowano tak wiele elektrowni węglowych, których nie można szybko włączyć i wyłączyć, że turbiny wiatrowe są przez 15% czasu bezczynne, gdyż sieć nie jest w stanie odebrać energii z elektrowni i turbin. To nie pierwszy problem Chin. Elektrownie słoneczne powstają tam w takim tempie, że sieć przesyłowa nie może odebrać aż 50% generowanej przez nie energii. Szybki rozwój alternatywnych źródeł energii staje się też problemem dla sieci w Australii i Indiach. Jednak najbardziej spektakularnym przykładem podobnej sytuacji jest Teksas. Energetyka wiatrowa rozwinęła się tam tak szybko, że konieczne było zainwestowanie 7 miliardów dolarów w budowę sieci przesyłowych, którymi energia produkowana na słabo zaludnionym północnym zachodzie trafiła do dużych miast na południowym wschodzie. Większości państw i regionów na świecie nie byłoby stać na tak potężne inwestycje. « powrót do artykułu
  9. Sąd Apelacyjny dla Siódmego Okręgu orzekł, że firmy takie jak Uber czy Lyft mogą być - z prawnego punktu widzenia - traktowane odmiennie niż przedsiębiorstwa taksówkowe, gdyż oferują inne usługi. Taki wyrok zapadł w sprawie wniesionej do sądu przez Illinois Transportation Trade Association. Sąd uznał, że wymienione firmy i pracujący dla nich kierowcy nie muszą posiadać licencji taksówkowych i nie muszą mieć z góry ustalonych taryf. Wielu użytkowników woli taksówki od Ubera i innych TNP (transportation network providers - dostawcy sieci transportowych), gdyż nie muszą używać specjalnych aplikacji, by z nich skorzystać, wystarczy machnięcie ręką na ulicy, oraz dlatego, że ceny za ich usługi są ustalone przez miasto - stwierdził sąd. Aby zobrazować różnicę, sąd odwołał się do przykładu z psami i kotami. Wiele miast i miasteczek reguluje posiadanie psów, ale nie posiadacze kotów. Właściciele psów, w przeciwieństwie do właścicieli kotów, uznają, że miasta powinny regulować również posiadanie kotów, jednak nie mówią przy tym, że brak regulacji powoduje, iż brak regulacji nałożonych na 'konkurujące' zwierzęta pozbawia właścicieli psów konstytucyjnie gwarantowanych praw do własności czy też, że są poddawani sprzecznej z konstytucją dyskryminacji. Składający skargę nie przedstawili mocnych argumentów na poparcie twierdzenia, że Uber i inne TNP powinny podlegać takim samym regulacjom jak taksówki. Wyrok sądu oznacza, że na przykład w Chicago, które znajduje się pod jurysdykcją wspomnianego sądu apelacyjnego, kierowcy Ubera - w przeciwieństwie do kierowców tradycyjnych taksówek - nie muszą kupować specjalnej licencji, kosztującej obecnie 60 000 USD, nie są pobierane ich odciski palców i nie muszą uczestniczyć w specjalnym kursie, który kosztuje 300 USD. W ubiegłym miesiącu taksówkarze poskarżyli się sądowi, że wpływy przemysłu taksówkowego spadły o 50%, gdyż w Chicago jest około 90 000 kierowców Ubera i Lyfta. Przedstawiciele taksówkarzy rozważają odwołanie się od decyzji sądu. « powrót do artykułu
  10. Wiadomo już, w jaki sposób witaminy A i C modyfikują epigenetyczną "pamięć" komórek. To bardzo ważne dla medycyny regeneracyjnej i reprogramowania jednych komórek w drugie. Jak tłumaczą naukowcy z Uniwersytetów Otago, w Stuttgarcie oraz Babraham Institute, tożsamość komórki jest ustanawiana na poziomie DNA za pomocą zmian epigenetycznych (wzorca przyłączonych do genów grup metylowych -CH3). By zawrócić komórki do naiwnego stanu pluripotencjalnego i otworzyć dostęp do całego genomu, trzeba usunąć epigenetyczną warstwę informacji. Międzynarodowy zespół naukowców przyglądał się modyfikacji epigenetycznej, gdzie grupa -CH3 jest przyłączana do cytozyny (zachodzi metylacja cytozyny). Tagowanie tego rodzaju jest rzadkie w embrionalnych komórkach macierzystych, w komórkach zróżnicowanych zdarza się zaś o wiele częściej. Usuwanie tych znaczników z DNA (demetylacja) stanowi najistotniejszą część osiągania pluripotencji i wymazywania pamięci epigenetycznej. Enzymami, które aktywnie usuwają grupy -CH3, są enzymy TET (aktualnie znane są 3 takie enzymy: TET1, TET2 i TET3). Autorzy publikacji z pisma PNAS badali, jakie sygnały molekularne kontrolują ich aktywność. Okazało się, że witaminy A i C synergicznie ograniczają metylację DNA, ułatwiając w ten sposób tworzenie naiwnych iPS. Witamina A zwiększa komórkowy poziom białek TET, które katalizują oksydację 5-metylocytozyny (5mC) do 5-hydroksymetylocytozyny (5hmC), zaś witamina C pozwala na większą aktywność tych enzymów, redukując Fe3+ do Fe2+ (regeneruje ona kofaktor, czyli w tym przypadku jon, potrzebny enzymom do katalizowania reakcji). Innymi słowy: witamina A nasila produkcję 5hmC, aktywując transkrypcję TET2 i TET3, natomiast witamina C wzmaga aktywność TET i produkcję 5hmC na drodze recyklingu Fe2+. « powrót do artykułu
  11. Google i Facebook połączyły siły z firmami TE SubCom oraz Pacific Light Data Communication i wspólnie położą kabel łączący Hongkong z Los Angeles. Łącze będzie miało długość 12 800 kilometrów, a jego przepustowość sięgnie 120 Tbps. Będzie to więc najszybszy transpacyficzny kabel komunikacyjny. Jak zapewnił Brian Quigley z Google'a, jeśli nie pojawią się jakieś poważne przeszkody, to dane będzie można przesyłać już w roku 2018. Pacific Light Cable Network (PLCN) zapewni szybszy przesył danych i mniejsze opóźnienia niż dotychczas istniejąca infrastruktura. Dzięki temu mieszkańcy Azji zyskają lepszy dostęp do usług Google'a czy Facebooka. Giganci IT często angażują się w budowę kabli podmorskich, gdyż dzięki temu mogą sprzedawać usługi lepszej jakości. Niedawno Google zakończyło swój udział w przedsięwzięciu, w ramach którego powstał kabel "Faster" o przepustowości 60 Tbps, który połączył USA i Japonię. Z kolei w I kwartale 2018 roku ma rozpocząć pracę kabel Marea, którego właścicielami są Facebook, Microsoft i Telefonica. Łączy on USA z Europą. « powrót do artykułu
  12. Amerykańska agencja antynarkotykowa DEA zrezygnowała z dodania dwóch psychoaktywnych składników kratomu do listy najbardziej niebezpiecznych narkotyków. Gdyby substancje te tam trafiły byłoby to równoznaczne z uznaniem kratomu za narkotyk, którego stosowanie w medycynie nie jest obecnie dopuszczone. Tymczasem kratom ma wiele obiecujących właściwości i może być niezwykle skutecznym środkiem przeciwbólowym i zwalczać uzależnienie od narkotyków. Z decyzji DEA cieszy się m.in. Botanical Education Alliance. Kratom nie jest opiatem. Nie uzależnia. Nie ma żadnych przyczyn, dla których DEA powinna penalizować czy regulować używanie kratomu w czasach, gdy wszelkie federalne wysiłki antynarkotykowe powinny skupiać się na walce z opioidami - stwierdzili przedstawiciele tej organizacji. Gdyby DEA dodała kratom do wspomnianej listy roślina byłaby na niej wymieniona przez co najmniej 2 lata, co znacząco ograniczyłoby m.in. możliwość badań naukowych nad nią. Obecnie amerykańskie prawo federalne nie zakazuje używania czy handlu kratomem. Sześć stanów ma jednak zamiar zakazać tej rośliny i jej składników. O niezwykłych właściwościach kratomu pisaliśmy w tekście Kratom - niebezpieczny narkotyk czy zbawienny lek?. « powrót do artykułu
  13. Za pięć dni, 18 października, na nowo rozgorzeje spór o lokalizację Thirty Meter Telescope (TMT), największego teleskopu na świecie. Ma on powstać na Mauna Kea i, jak wcześniej planowano, miał rozpocząć pracę w 2022 roku. TMT ma zostać wyposażony w lustro o średnicy 30 metrów i do czasu rozpoczęcia w 2024 roku pracy przez European Extremely Large Telescope (lustro o średnicy 39 metrów) byłby największym teleskopem. Problem w tym, że nie wiadomo, czy TMT powstanie w terminie i czy stanie na Mauna Kea. Budowie kolejnego teleskopu na tej górze sprzeciwiają się bowiem rdzenni Hawajczycy, dla których Mauna Kea jest świętym szczytem stworzonym przez bogów dla dusz zdążających do nieba. Mauna Kea to jednak najlepsze na Półkuli Północnej miejsce dla teleskopów. A TMT wraz z budowanymi już European Extremely Large Telescope i Giant Magellan Telescope miał być podstawowym naziemnym instrumentem badawczym przyszłej dekady. W 2011 roku wydano zgodę na budowę teleskopu i od tamtej pory trwają protesty. W ubiegłym roku Sąd Najwyższy Hawajów cofnął wydaną zgodę, gdyż dopatrzył się naruszeń przepisów administracyjnych. Sąd nakazał też, by stanowa Rada Gruntów i Zasobów Naturalnych powtórzyła proces wysłuchań opinii publicznej i stron zainteresowanych TMT. Wysłuchania rozpoczną się 18 października i potrwają do końca listopada. Po przeprowadzeniu tego procesu Rada ponownie wyda decyzję dotyczącą budowy TMT. Wydaje się prawdopodobne, że otrzymamy zgodę - mówi astronom Robert Kirshner z Gordon and Betty Moore Foundation, która przeznaczyła na TMT 180 milionów dolarów. Żadna decyzja nie zapadnie prawdopodobnie przed końcem roku, a każda zostanie zaskarżona do stanowego Sądu Najwyższego. Nawet jeśli zgoda zostanie wydana i sąd podtrzyma decyzję urzędników, to prawdopodobnie budowa natrafi na spore trudności. Przeciwnicy teleskopu będą protestować i utrudniać prace konstrukcyjne. Dlatego też od lutego panel ekspertów zastanawia się nad alternatywnymi lokalizacjami dla TMT. Chilijski szczyt Cerro Amazonas, który brano pod uwagę na początkowym etapie planowania TMT przed 10 laty jest już niedostępny, gdyż trwa tam budowa European Extremely Large Telescope. Specjaliści zastanawiają się nad pobliskimi szczytami, jednak gdyby dla TMT wybrano Chile to wszystkie trzy wielkie teleskopy przyszłości znalazłyby się na Półkuli Południowej, przez co nie mogłyby obserwować znacznych fragmentów nieba nad Półkulą Północną. Odrzucono propozycje Chin i Indii - które obok USA, Japonii i Kanady partycypują w TMT - zbudowania teleskopu w Himalajach. Region ten jest bowiem zbyt odległy od portów, a tamtejsze warunki pozwoliłyby na prowadzenie budowy przez bardzo krótki czas w roku. Potencjalnie przydatne miejsca na Półkuli Północnej to San Pedro Martir w meksykańskiej Kalifornii Dolnej oraz Roque de los Muchachos na hiszpańskiej La Palmie. Menedżerowie TMT zapewniają, że niezależnie od ostatecznej lokalizacji, budowa teleskopu rozpocznie się nie później niż w kwietniu 2018 roku. « powrót do artykułu
  14. Zaawansowana faza ostrego uszkodzenia nerek może skończyć się śmiercią nawet co drugiego pacjenta. Na szczęście chorobę będzie można teraz wykrywać na jej początkowym etapie rozwoju, gdy leczenie jest jeszcze stosunkowo proste, a rokowania dobre. Kluczem do ratującej zdrowie i życie diagnostyki jest nowy polimer, zaprojektowany w warszawskim Instytucie Chemii Fizycznej PAN. Chemicznym "sercem" tanich przyrządów diagnostycznych, zdolnych wykryć wczesne stadia chorób nerek, w nieodległej przyszłości może być specjalny polimer, przygotowany w Instytucie Chemii Fizycznej Polskiej Akademii Nauk (IChF PAN) w Warszawie przez mgr inż. Zofię Iskierko pod kierunkiem dr. inż. Krzysztofa Noworyty z grupy prof. dr. hab. Włodzimierza Kutnera. Polimer zaprojektowano i starannie skonstruowano w taki sposób, żeby szczególnie efektywnie wychwytywał ze swego otoczenia tylko jedną substancję: lipokalinę-2 (NGAL), białko naturalnie obecne we krwi człowieka. Dla lekarza wzrost stężenia tego związku u pacjenta to cenny sygnał o jeszcze nie dającym wyraźnych objawów, ale już się rozwijającym ostrym uszkodzeniu nerek. Prace nad wykonaniem polimeru, sfinansowane z grantu Narodowego Centrum Nauki, zrealizowano we współpracy z University of North Texas w Denton oraz warszawskimi Instytutem Fizyki PAN i Międzynarodowym Instytutem Biologii Molekularnej i Komórkowej. Zajmujemy się tworzeniem polimerowych warstw rozpoznających do chemosensorów wykrywających różne substancje. Wśród nich są m.in. biomarkery, czyli związki istotne biologicznie, których obecność lub zmiana stężenia w płynach ustrojowych niesie informację o zdrowiu pacjenta. Nasz najnowszy polimer potrafi wychwytywać lipokalinę-2, białko będące biomarkerem ostrego uszkodzenia nerek - mówi dr Noworyta. Na ostre uszkodzenie nerek (wcześniej znane jako ostra niewydolność nerek) cierpią mniej więcej trzy osoby na tysiąc. Na oddziałach szpitalnych sytuacja wygląda jednak znacznie groźniej: choroba ta może dotyczyć nawet 40% hospitalizowanych. Skutki wcześnie wykrytego ostrego uszkodzenia nerek są odwracalne. Wyraźne objawy choroby – takie jak osłabienie, wymioty czy zaburzenia świadomości – występują jednak dopiero w zaawansowanej fazie jej rozwoju, gdy możliwe komplikacje stają się poważnym zagrożeniem dla życia (w najbardziej zaawansowanym stadium śmiertelność dochodzi nawet do 50%!). Uszkodzenia nerek, które pojawiają się w późnych fazach choroby, mogą być już trwałe i wymagać stałych dializ, a nawet transplantacji całego organu. Zanim ostre uszkodzenie nerek się rozwinie, we krwi chorego rośnie stężenie lipokaliny. Zaprojektowaliśmy więc polimer, w którego strukturze znajdują się luki molekularne bardzo dobrze dopasowane do kształtu i właściwości cząsteczek właśnie tego związku. Prawdopodobieństwo, że ugrzęźnie w nich jakieś inne białko, jest bardzo, bardzo małe - wyjaśnia doktorantka Zofia Iskierko, pierwsza autorka publikacji w czasopiśmie ACS Applied Materials & Interfaces. Nowy polimer wykonano metodą wdrukowania molekularnego. Cząsteczki lipokaliny otoczono najpierw odpowiednio dobranymi, krótkimi polimerami (tzw. funkcyjnymi), wiążącymi się z tym białkiem w specyficznych, charakterystycznych tylko dla niego miejscach. Następnie wprowadzono drugi polimer, sieciujący, który łączył się z polimerem funkcyjnym. Polimer sieciujący poddano później polimeryzacji, po czym z tak powstałej struktury wypłukano lipokalinę. Ostatecznie otrzymano trwałą warstwę polimerową z lukami molekularnymi dopasowanymi do cząsteczek lipokaliny zarówno pod względem ich lokalnych cech chemicznych, jak też rozmiaru i kształtu. Gdy cząsteczki lipokaliny w badanym roztworze wejdą w kontakt z tak uformowanym polimerem, część z nich ma szansę ulokować się w lukach. Białka są jednak dość duże i niechętnie migrują przez sieć polimerową. Dlatego strukturę naszego polimeru musieliśmy sztucznie rozluźnić, wystarczająco, by zapewnić cząsteczkom lipokaliny jak najlepszy dostęp do jak największej liczby luk, ale nie przesadnie, żeby warstwa polimerowa się nie zapadła - opisuje dr Noworyta. Wymaganą porowatość przy zachowaniu dostatecznej wytrzymałości mechanicznej naukowcy z IChF PAN otrzymali dzięki użyciu nieorganiczno-organicznych materiałów mikroporowatych typu MOF (Metal-Organic Framework). Pod względem struktury materiały MOF przypominają trójwymiarowe kratownice o rozmiarach "oczek" zależących od rodzaju użytych atomów metalu i łączących je ligandów. To właśnie na tym szkielecie budowlanym wytwarzano właściwą warstwę detekcyjną. Gdy polimer sieciujący był już utwardzony, podczas usuwania cząsteczek lipokaliny niszczono także – wtedy już niepotrzebny – szkielet MOF. Zabieg dodatkowo skutkował rozbudowaniem powierzchni polimeru, co prowadziło do zwiększenia liczby luk dostępnych dla cząsteczek białka i zapewniało lepszą czułość chemoczujnika. Warstwa polimerowa po wychwyceniu cząsteczki lipokaliny zwiększa swą masę. Gdyby więc była osadzona na niewielkim oscylatorze piezoelektrycznym, jego łatwa do zmierzenia częstotliwość drgań musiałaby się zmienić. Innym sposobem zidentyfikowania obecności cząsteczek lipokaliny w lukach molekularnych jest pomiar zmian potencjału warstwy detekcyjnej, który wpływa na zmianę prądu płynącego w elemencie przetwarzającym (tranzystorze polowym). Ze względu na swoją prostotę i niezawodność, to ostatnie rozwiązanie nadawałoby się zwłaszcza do chemoczujników handlowych przeznaczonych dla masowego odbiorcy. Nasze badania mają charakter podstawowy, laboratoryjny. Od przygotowania polimeru wychwytującego lipokalinę do seryjnej produkcji tanich detektorów, służących profilaktyce i wczesnemu leczeniu chorób, prowadzi jednak dość daleka droga - podkreśla prof. Kutner. Niels Bohr, wielki duński fizyk kwantowy, mawiał, że przewidywanie jest trudne, zwłaszcza przyszłości. Racjonalne wydaje się jednak przypuszczenie, że już w przyszłej dekadzie urządzenia wykrywające różne biomarkery i wcześnie ostrzegające o zagrożeniu zdrowia staną się integralną częścią wszechobecnych smartfonów. Przeprowadzenie diagnozy stałoby się wtedy równie proste, jak badanie zawartości cukru we krwi za pomocą współczesnych glukometrów: wystarczyłoby do smartfona podłączyć wymienny, prosty chemoczujnik z odpowiednio dobraną rozpoznającą warstwą polimerową, nanieść na nią odrobinę płynu fizjologicznego i... poczekać, aż smartfon wyświetli wynik. Zaawansowaną diagnostykę medyczną każdy mógłby przeprowadzać sam, tak często, jak uzna to za stosowne. « powrót do artykułu
  15. Zapadła bezprecedensowa decyzja o rozpoczęciu współpracy pomiędzy pomiędzy amerykańskimi służbami wywiadowczymi a Narodowymi Akademiami Nauk, Inżynierii i Medycyny. W ramach współpracy powstanie stała Intelligence Community Studies Board, która zajmie się m.in. zbadaniem, w jaki sposób badania społeczne i behawioralne mogą posłużyć zwiększeniu bezpieczeństwa narodowego. David Honey, który w ODNI (Office of the Director of National Intelligence) piastuje stanowiska dyrektora ds. naukowych i technologicznych, stwierdził, że dzięki współpracy z Akademiami Nauk wywiad będzie lepiej zbierał i analizował informacje. Robert Fein, psycholog specjalizujący się w zagadnieniach bezpieczeństwa narodowego, mówi, że jednym z obszarów, który wymaga szybkiej poprawy, jest lepsze określenie, kiedy ludzie kłamią. Po rozpoczęciu wojen w Afganistanie i Iraku amerykańskie agencje wywiadowcze zainwestowały duże kwoty w udoskonalenie technicznych i behawioralnych metod przesłuchań. Jednak, jak zauważa Fein, który w 2006 roku stał na czele zespołu przygotowującego raport nt. nowych technik, wyniki były rozczarowujące. Badacze obiecywali gruszki na wierzbie i po wydaniu milionów dolarów uzyskano niewiele przydatnych rzeczy - stwierdza. Wiele badań nad nowymi metodami przesłuchań było obarczonych poważnymi błędami. Na przykład w żadnym studium na temat kłamstwa nie uwzględniono ludzi, którzy nie mówili po angielsku - przypomina. Przełożenie wyników badań naukowych na praktykę wywiadowczą jest niejednokrotnie bardzo trudne. Nauka opisuje szersze zjawisko, a w pracy wywiadowczej potrzebny jest opis i sposób podejścia do konkretnego przypadku. Zadaniem wspomnianej Intelligence Community Studies Board nie będzie szukanie równowagi pomiędzy nauką, a potrzebami agencji wywiadowczych. Ma się ona skupić bardziej na wskazaniu tych obecnych i przyszłych obszarów badań, które mogą być przydatne do zwiększenia bezpieczeństwa narodowego. Część z 300 naukowców, którzy wejdą w skład nowej organizacji, wyraża jednak pewne obawy. Pomimo tego, że są zainteresowani nowym pomysłem boją się, że praca ta wpłynie negatywnie na ich badania, gdyż - ze względu na jej charakter - nie będą mogli w pełni dzielić się jej wynikami z innymi naukowcami i opinią publiczną. Paul Glimcher, neuroekonomista z New York University mówi, że taka współpraca to świetny pomysł. Zauważa jednak, że on sam stoi na czele prowadzonego przez Kavli Institute projektu HUMAN, w ramach którego zebrano szczegółowe charakterystyki behawioralne 10 000 mieszkańców Nowego Jorku. Obiecaliśmy badanym, że dane te nigdy nie zostaną udostępnione rządowi. Obawiam się, że ludzie ci mogą negatywnie odebrać moją współpracę z amerykańskimi agencjami wywiadowczymi. « powrót do artykułu
  16. Confédération Internationale de la Pêche Sportive wnioskuje, by wędkarstwo stało się dyscypliną olimpijską i pojawiło się za 4 lata na Letnich Igrzyskach w Tokio. Po schwytaniu ryby miałyby być wypuszczane. Choć szef federacji Ferenc Szalay powołuje się na popularność wędkarstwa oraz zasady fair play tej starej tradycji, krytycy podkreślają, że w łowieniu zbyt dużą rolę odgrywa szczęście. Wg nich, dyscyplina byłaby też niezrozumiała i nudna dla obserwatorów. Łowienie pojawiło się już na olimpiadzie jako nieoficjalna dyscyplina. Miało to miejsce w Paryżu w 1900 r. W zmaganiach wzięło udział 6 krajów (na ok. 600 uczestników tylko 40 pochodziło z państw innych niż Francja). Nic jednak nie wiadomo o zwycięzcy. « powrót do artykułu
  17. Naukowcy z Uniwersytetu Stanowego Oregonu (OSU) poczynili znaczne postępy w rozumieniu działania ksantohumolu - flawonoidu z chmielu dobrze rokującego w leczeniu zespołu metabolicznego. Posługując się m.in. spektroskopią mas, zespół stwierdził, że prenylowane flawonoidy, a zwłaszcza ksantohumol, dysponują mechanizmem wiązania sprzyjającym aktywności receptora farnezoidowego X (ang. farnesoid X receptor, FXR). FXR to zaś główny regulator metabolizmu lipidów i glukozy. FXR budzi zainteresowanie pod kątem terapii stłuszczenia wątroby, cukrzycy typu 2. i otyłości. W ramach naszego studium zidentyfikowaliśmy unikatowy mechanizm wiązania i strukturę chemiczną, która to umożliwia. To bardzo interesujące i obiecujące - podkreśla dr Claudia Maier. Znając dokładniej FXR na poziomie molekularnym, można skuteczniej wykorzystać ksantohumol lub stworzyć lepiej działające związki o podobnej budowie. Receptor FXR to tylko część normalnego metabolizmu lipidów i glukozy. Innymi ważnymi czynnikami są dieta, aktywność fizyczna czy prawidłowa waga. Funkcja FXR może zostać upośledzona w wyniku nadmiernego spożycia tłuszczów i cukru. Z drugiej strony odtworzenie jego działania pomaga poradzić sobie z problemami metabolicznymi. Wcześniej w tym roku naukowcy z OSU Cristobal Miranda i Fred Stevens badali zwierzęta laboratoryjne na wysokotłuszczowej diecie. Zauważyli, że wysokie dawki ksantohumolu obniżały poziom złego cholesterolu LDL aż o 80%, insuliny o 42%, a biomarkera stanu zapalnego interleukiny 6 (IL-6) o 78%. W porównaniu do zwierząt z grupy kontrolnej, ograniczono także przyrost wagi. Wykorzystane dawki przewyższały stężenia dostępne w diecie, ale wg Amerykanów, da się je łatwo uzyskać w ramach suplementacji. « powrót do artykułu
  18. Ocieplenie klimatu niesie ze sobą wiele zagrożeń i niekorzystnych zmian, są jednak regiony, które mogą na tym skorzystać. Zdaniem naukowców z Virginia Tech w etiopskiej części basenu Nilu Błękitnego może zwiększyć się ilość wody. To z kolei może oznaczać zwiększoną produkcję żywności, zwiększoną produkcję energii z hydroelektrowni oraz ułatwić prace irygacyjne. Ironią losu jest, że zmiany klimatyczne mogą uczynić z Etiopii kraj eksportujący żywność - mówi profesor Zach Easton, specjalista ds. inżynierii systemów biologicznych. Naukowcy wykorzystali cały zestaw modeli klimatycznych i hydrologicznych, za pomocą których chcieli przewidzieć wpływ zmian klimatycznych na dostępność wody i transport osadów w Nilu Błękitnym. Większość dotychczasowych badań nad tą rzeką skupiała się wyłącznie na dostępności wody. Uczeni z Virginia Tech przyjrzeli się też transportowi osadów, gdyż w basenie Nilu Błękitnego ma miejsce jeden z najszybciej przebiegających procesów erozji, przez co osady stanowią poważny problem w rzece. Etiopia może doświadczyć zwiększonego dostępu do wody, co wydłuży sezon uprawy. Niewykluczone, że możliwe tam będą dwukrotne zbiory w ciągu roku - stwierdził główny autor badań, Moges Wagena z Etiopii. O ile poprzednie badania wykazywały możliwość zwiększenia się dostępu do wody o około 10%, to badania obecne szacują, że przepływ wody może być większy o 20-30 procent. Jednym z potencjalnych zidentyfikowanych problemów jest transport osadów, który może się zwiększyć wraz z przepływem wody. Osady mogą zmniejszyć pojemność zbiorników oraz negatywnie wpłynąć na produkcję energii z hydroelektrowni. Lepsza dostępność wody to niewątpliwie dobra wiadomość, lecz korzyści zostaną częściowo zniwelowane przez większy transport osadów. Jednym ze sposobów poradzenia sobie z tym problemem jest wprowadzenie odpowiednich praktyk w rolnictwie, na przykład hodowla roślin zapobiegających erozji i uprawianie gleby metodą zerową, dzięki czemu gleba jest zdrowsza, bardziej stabilna i mniej podatna na erozję - stwierdził Easton. « powrót do artykułu
  19. Andrew Dyhin, wynalazca z Melbourne, a jednocześnie założyciel firmy PotatoMagic, poświęcił 12 lat życia na badania i uzyskanie sera z ziemniaków. Produkt nazwał chato (od ang. cheese potato). Chato wygląda i topi się jak ser, ale to same ziemniaki. Z oczywistych względów Dyhin nie ujawnia szczegółów procesu, ale wiadomo, że ziemniaki są obierane i przetwarzane bez żadnych dodatków. Chato, doskonałą alternatywę dla nabiału, można topić i kroić, a także mieszać z innymi składnikami do uzyskania płynnych sosów: dipów czy ailloli. Dyhin planuje wykorzystać chato do produkcji przekąsek i produktów z czasem przydatności do spożycia wynoszącym od 4 miesięcy do 4 lat. Wspomina też o lodach z ziemniaczanym serem. Smak jest ponoć zabójczy. By uzyskać różne smaki, można dodać do chato wszystko, co tylko przyjdzie do głowy. Można je piec, by zagęścić ciasto i sprawić, że będzie wilgotne. Chato smakuje jak ziemniak albo w ogóle go nie przypomina. Zależy, co się z nim zrobi. Obecnie Australijczyk rozpoczyna komercjalizację pomysłu i szuka inwestorów. Dyhin podkreśla, że podczas prac przyświecała mu myśl o bezpieczeństwie spożywczym rodzinnego kraju i świata. Inną kwestią jest wykorzystanie plonów. Ok. 25% wyhodowanych ziemniaków nie trafia na talerze. Głównie z powodu brzydkiego wyglądu. Musimy znaleźć alternatywy dla zwierząt oraz intensywnych praktyk rolniczych - podsumowuje. « powrót do artykułu
  20. Ludzie, którzy często mają spadki ciśnienia i zawroty głowy po wstaniu, znajdują się w grupie podwyższonego ryzyka demencji. Badacze z Centrum Medycznego Erazmusa wyjaśniają, że mniej krwi dociera wtedy do mózgu, prowadząc z czasem do uszkodzenia neuronów. Autorzy publikacji z pisma PLoS Medicine skupili się na tzw. hipotensji ortostatycznej. Jej epizody stają się z wiekiem częstsze. Holendrzy śledzili losy ok. 6 tysięcy osób (średnio przez 15 lat). Stwierdzili, że u ludzi cierpiących po wstaniu na spadki ciśnienia demencja rozwijała się częściej. Choć przy wzroście ryzyka dla osób z hipotensją ortostatyczną rzędu ok. 4% wpływ może się wydawać subtelny, biorąc pod uwagę, ile ludzi cierpi na tę przypadłość w przebiegu starzenia, oddziaływanie tego zjawiska na globalne obciążenie demencją może być znaczące - podkreśla dr Arfan Ikram. Naukowiec doradza, że jeśli ktoś w starszym wieku doświadcza częstych zawrotów głowy po zmianie pozycji, powinien o tym powiedzieć lekarzowi rodzinnemu. W przypadku młodych osób zdarzające się jednorazowo, np. przy odwodnieniu, epizody nie stanowią powodu do zmartwień. « powrót do artykułu
  21. Zdaniem inżynierów BMW, motocykle przyszłości będą tak bezpieczne, że można będzie nimi bez obaw jeździć bez kasku. Firma zaprezentowała właśnie model Motorrad Vision Next 100, prototyp samostabilizującego się motocykla przyszłości. Urządzenie nie emituje żadnych spalin i utrzymuje pionową pozycję nawet podczas postoju. Jego system stabilizacji bez przerwy chroni motocyklistę. Każda spóźniona reakcja człowieka będzie kompensowana przez reakcję motocykla, który się ustabilizuje. W przyszłości motocykliści będą mogli jeździć bez ubrań ochronnych - twierdzi Edgar Heinrich, dyrektor ds. projektowych w wydziale motocykli BMW. Samostabilizujące się motocykle nieprędko trafią na nasze drogi. Zdaniem specjalistów nie stanie się to przed rokiem 2030. BMW nie przewiduje też produkcji autonomicznych motocykli. Do roku 2021 chce za to rozpocząć sprzedaż w pełni autonomicznych samochodów. « powrót do artykułu
  22. Mimo ogromnych zmian ekonomicznych i społecznych, jakie zaszły w ciągu ostatnich 700 lat, pewne cechy miast pozostały niezmienne. Okazuje się np., że zarówno w średniowiecznych, jak i współczesnych europejskich realiach większe miasta mają większą gęstość zaludnienia niż mniejsze. Może to sugerować, że ok. 1300 r. instytucje zachodnioeuropejskie nie ograniczały zasadniczo mieszania społeczności, integracji ekonomicznej czy swobodnego przepływu ludzi, idei oraz informacji. Autorzy publikacji z pisma PLoS ONE przekonują, że dynamika społeczna umożliwiana przez średniowieczne miasta była podobna do tej ze współczesnych miast. Naukowcy analizowali dane ze 173 średniowiecznych miast z zachodniej Europy (we wszystkich liczebność populacji wynosiła >1.000, a w większości >5.000). Zauważyli, że wzorce grupowania społeczności w średniowiecznych stolicach Włoch, Francji i Belgii były statystycznie nierozróżnialne od o wiele młodszych miast. Jak podkreśla Luís M.A. Bettencourt, współczesne i historyczne miasta różnią się na poziomie makro (instytucjonalnym). Z powodu podobieństwa zachowań z poziomu mikro i ich wpływu na większy system, to, co wiemy o dzisiejszych procesach urbanizacyjnych, może się odnosić do przeszłości. « powrót do artykułu
  23. Mechanizm sprzężenia zwrotnego zabezpiecza rośliny przed uszkodzeniem przez światło. Zespół z Imperial College London odkrył, że kluczowy dla fotosyntezy fotoukład II (PSII) dostosowuje swoją aktywność, by uniknąć uszkodzenia przez światło i tlen. Fotoukład II wykorzystuje energię słoneczną, by usunąć elektrony z wody. Te z kolei są wykorzystywane do związania CO2 z atmosfery. Gdy liście zamykają aparaty szparkowe, by zabiec utracie wody, zatrzymuje się także wymiana gazowa i dwutlenek węgla nie może się dostać do systemu. Gdy CO2 z wnętrza liścia się wyczerpuje, elektrony nie mają z czym reagować. Mimo że CO2 nie dostaje się do środka, światło jest nadal obecne, generując nadmiar elektronów. Zaczyna powstawać tlen singletowy, który może uszkodzić fotoukład II. Posługując się metodami spektroelektrochemicznymi, Brytyjczycy odkryli mechanizm chroniący fotoukład II. Okazało się, że elektrony wyzwalają uwalnianie z enzymów jonu HCO3−. Zjawisko to spowalnia rozkład wody (i transfer elektronów) oraz tworzenie tlenu singletowego (1O2). Naukowcy sugerują dwukierunkowy mechanizm: z jednej strony powodujący gromadzenie elektronów niski poziom CO2 wyzwala uwalnianie HCO3−, z drugiej zaś poziom CO2 w lokalnym środowisku liścia może wpływać na wiązanie HCO3−. Teraz, kiedy rozumiemy nowy mechanizm w laboratorium [badania prowadzono na błonach wzbogaconych PSII], kolejnym krokiem będzie zdefiniowanie, kiedy uruchamia się on w terenie: w lesie, szklarni, doniczce, morzu, jeziorze czy sadzawce - podkreśla prof. Bill Rutherford. Wcześniej, współpracując z zespołem z Uniwersytetu Stanowego Michigan, Rutherford wyjaśnił, w jaki sposób światło może uszkodzić fotosystem II. Naukowcy zademonstrowali, że zmiany w natężeniu światła generują pulsy pola elektrycznego. Wyniki studium pokazały, że nawet trzepotanie liści na wietrze może tworzyć niebezpieczne pulsy pola, które skutkują fotoinhibicją, czyli procesem negatywnie wpływającym na wzrost. « powrót do artykułu
  24. Naukowcy z Tsinghua University ustalili, że dodawanie grafenu lub jednościennych nanorurek węglowych (ang. SWNTs) do karmy dla gąsienic jedwabników morwowych (Bombyx mori) sprawia, że wytwarzają one mocniejszą nić. Oprzędem jedwabników interesuje się zarówno przemysł tekstylny, jak i technologiczny. W ostatnich latach próbowano ulepszyć jedwab na różne sposoby, np. dodając barwniki, nanocząstki, przewodzące tworzywa czy antybiotyki. W tym celu poddawano obróbce gotowy produkt lub stosowano suplementy do karmy gąsienic. W ramach najnowszego eksperymentu Chińczycy spryskiwali liście morwy 0,2% wodnym roztworem nanorurek węglowych lub grafenu. Testy nici jedwabnej wykazały, że może ona wytrzymać naprężenia większe o 50%. Badanie spektrograficzne ujawniło, że nanowęglowe dodatki utrudniały zmianę konformacji fibroiny włókien jedwabiu z kłębka statystycznego i helisy alfa do harmonijek beta, co może się przekładać na zwiększenie wydłużenia przy zerwaniu. Chińczycy prowadzili też badania pirolizy zmodyfikowanego jedwabiu w temperaturze 1050°C. Wprowadzenie grafenu i SWNTs pozwalało uzyskać grafityzowane struktury o podwyższonym przewodnictwie elektrycznym. Autorzy publikacji z pisma Nano Letters mają nadzieję, że ich ustalenia pozwolą wyprodukować z nowego jedwabiu tkaniny o lepszych właściwościach ochronnych, bardziej wytrzymałe implanty medyczne czy ubrania z wbudowaną elektroniką. Wcześniej naukowcy muszą jednak przeprowadzić dodatkowe badania. Na razie nie wiadomo bowiem, w jaki sposób jedwabniki włączają nanorurki i grafen w nić. Nie ujawniono także, ile dokładnie SWNTs i grafenu trafia do jedwabiu i czy zabieg nie wpływa negatywnie na same gąsienice. « powrót do artykułu
  25. Grupa naukowców z Oxford University postanowiła sprawdzić, które z katastrof lotniczych interesują opinię publiczną i dlaczego. Uczeni przyjrzeli się wpisom w Wikipedii dotyczącym około 1500 wypadków lotniczych i stwierdzili, że dopiero katastrofy, w których zginie co najmniej 50 osób cieszą się szerokim zainteresowaniem opinii publicznym. Zainteresowanie to wzrasta wraz z liczbą ofiar. Jeśli zaś zginie mniej niż 50 osób bardzo trudno jest przewidzieć, czy opinia publiczna zainteresuje się katastrofą. W Wikipedii znajdziemy wpisy na temat katastrof lotniczych, które miały miejsce w latach 1897-2016. Okazuje się, że znaczenie dla zainteresowania katastrofą ma też miejsce, w którym doszło do wypadku. Na przykład katastrofa na terenie Ameryki Północnej cieszy się 50-krotnie większym zainteresowaniem wśród anglojęzycznych użytkowników Wikipedii niż katastrofa w Afryce. W hiszpańskojęzycznej Wikipedii wypadek, który miał miejsce na terenie Ameryki Południowej przykuwa 50-krotnie większą uwagę niż wypadek w Afryce i 5-krotnei większą niż wypadek w Ameryce Północnej. Zjawisko takie obserwujemy niezależnie od liczby ofiar. Co więcej, wypadki, w których uczestniczyły linie lotnicze z innych regionów świata musi charakteryzować 3-krotnie większa liczba ofiar niż w przypadku linii północnoamerykańskich i 5-krotnie większa niż w przypadku linii południowoamerykańskich, by przyciągały równie dużo zainteresowania wśród - odpowiednio - anglo- i hiszpańskojęzycznych użytkowników Wikipedii co wypadki linii z regionu. Ważnym czynnikiem liczby odsłon i edycji na Wikipedii było też zainteresowanie mediów danym wypadkiem. Gdy media przestawały się interesować wypadkiem, gwałtownie spadała liczba odsłon odpowiednich haseł w Wikipedii. Wyraźnie widać, że na zawartość anglojęzycznej Wikipedii wpływa to, co jest ważne dla ludzi z Zachodu i jest w niej niewiele odniesień do świata poza Ameryką Północną i Europą. To zaś pokazuje, że takie otwarte projekty narażone są na zachwianie proporcji. [...] Podobnego zachwiania proporcji można spodziewać się w przypadku innych wersji językowych, jednak w wersjach tych liczba artykułów nie jest odpowiednio duża, byśmy na ich podstawie mogli wysnuć solidne wnioski statystyczne" - mówi doktor Taha Yasseri. Analiza anglo- i hiszpańskojęzycznych edycji Wikipedii wykazała, że najczęściej czytanym artykułem dotyczącym katastrofy lotniczej był ten o zestrzeleniu Malaysia Airlines Flight 17 nad Ukrainą. Dwa pozostałe najpopularniejsze teksty dotyczyły zniknięcia Malaysian Airlines Flight 370 oraz katastrofy Air France Flight 447. « powrót do artykułu
×
×
  • Dodaj nową pozycję...