Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37045
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    231

Zawartość dodana przez KopalniaWiedzy.pl

  1. Rosyjskie władze zakazały używania największego chińskiego komunikatora. WeChat został dodany do listy zabronionych witryn. Rosyjskie prawo zobowiązuje firmy zajmujące się dystrybucją informacji online do zarejestrowania się w Rosji. WeChat, własność firmy Tencent, ma około 900 milionów aktywnych użytkowników. Większość z nich pochodzi z Chin. Chińska firma oświadczyła, że próbuje w Moskwie wyjaśnić sytuację. Tymczasem WeChat jest zablokowany w Rosji co najmniej od piątku. Władze w Moskwie coraz bardziej postrzegają internet jako zagrożenie polityczne i usiłują wprowadzić jego kontrolę na wzór kontroli w Państwie Środka, uważają analitycy z waszyngtońskiego think-tanku New America. Potwierdzeniem takiej polityki może być na przykład zaproszenie w ubiegłym roku do Moskwy twórców chińskiego Wielkiego Firewalla. Byli oni gośćmi forum dotyczącego bezpieczeństwa w internecie. W 2015 roku w Rosji wprowadzono przepisy, na podstawie których informacje o obywatelach Rosji mogą być przechowywane tylko w Rosji. WeChat to jedna z wielu platform komunikacyjnych, która została w ostatnim czasie zablokowana przez władze Rosji. W ubiegłym tygodniu zablkowano komunikatory Line, Blackberry oraz Imo. W listopadzie ubiegłego roku nałożono blokadę na serwis LinkedIn. « powrót do artykułu
  2. Kwasy omega-3 odgrywają kluczową rolę w podtrzymaniu integralności bariery krew-mózg, która chroni ośrodkowy układ nerwowy (OUN) przed krążącymi z krwią bakteriami, innymi patogenami czy toksynami. Prof. Chenghua Gu i jej zespół z Harvardzkiej Szkoły Medycznej ustalili, że bariera krew-mózg (BKM) pozostaje zamknięta dzięki zahamowaniu transcytozy, czyli procesu transportu substancji z jednego bieguna komórki na drugi w pęcherzykach wewnątrzcytoplazmatycznych. Amerykanie odkryli, że tworzenie pęcherzyków jest hamowane przez konkretny skład lipidowy komórek naczyń krwionośnych ośrodkowego układu nerwowego (chodzi o równowagę między kwasami omega-3 i innymi lipidami, podtrzymywaną przez białko transportowe Mfsd2a). O ile bariera krew-mózg chroni OUN przed uszkodzeniem, o tyle utrudnia także dostarczanie leków do mózgu. Blokowanie aktywności Mfsd2a może więc być dobrą strategią leczenia np. udarów, nowotworów mózgu czy choroby Alzheimera. Nasze badanie jako pierwsze pokazuje mechanizm molekularny, za pomocą którego w naczyniach krwionośnych OUN osiągana jest niska transcytoza, zapewniająca nieprzenikalność bariery krew-mózg. Nadal nie wiemy wielu rzeczy o regulacji BKM. Lepsze zrozumienie tych mechanizmów pozwoli manipulować barierą, by bezpiecznie i skutecznie dostarczać terapeutyki do mózgu. Komórki śródbłonka (endoteliocyty) naczyń włosowatych BKM są połączone ze sobą strefami zamykającymi, które stanowią ścisłe złącza i nie mają szczelin, porów czy okienek. Oznacza to, że związki z osocza mogą pokonywać barierę śródbłonka wyłącznie na drodze transportu przezkomórkowego. W 2014 r. zespół Gu odkrył, że białko Mfsd2a, które występuje tylko w komórkach śródbłonka naczyń ośrodkowego układu nerwowego, hamuje transcytozę i jest krytyczne dla podtrzymania integralności bariery krew-mózg. Myszy pozbawione Mfsd2a cechował wyższy wskaźnik tworzenia pęcherzyków wewnątrzcytoplazmatycznych i przeciekająca BKM (działo się tak mimo obecności prawidłowych stref zamykających). W ramach najnowszego studium Benjamin Andreone badał, jak Mfsd2a podtrzymuje barierę krew-mózg. Mfsd2a to podstawowy mechanizm transportu do mózgu lipidów zawierających kwas dokozaheksaenowy (DHA), a więc kwas omega-3 występujący m.in. w algach i rybach odżywiających się algami. Amerykanie testowali myszy ze zmutowanym Mfsd2a, w którym substytucja pojedynczego aminokwasu znosiła zdolność transportu DHA. Wstrzyknięcie fluorescencyjnego barwnika pozwoliło zaobserwować przeciekającą BKM, a także wyższe wskaźniki formowania pęcherzyków wewnątrzcytoplazmatycznych i transcytozy. Wyglądało to tak samo, jak u gryzoni pozbawionych Mfsd2a. Naukowcy porównali skład lipidowy endoteliocytów naczyń włosowatych mózgu i płuc (te 2. nie mają właściwości barierowych). Okazało się, że w komórkach śródbłonka mózgu poziom lipidów zawierających DHA jest ok. 2-5-krotnie wyższy. Dodatkowe eksperymenty pokazały, że Mfsd2a hamuje transcytozę, tłumiąc powstawanie kaweoli - niewielkich wklęśnięć błony komórkowej endoteliocytów. Myszy z prawidłowym poziomem Cav-1 - białka potrzebnego do tworzenia kaweoli - ale pozbawione Mfsd2a miały nasiloną transcytozę i przeciekającą BKM. Gryzonie pozbawione zarówno Cav-1, jak i Mfsd2a miały niewielką transcytozę i nieprzenikalną barierę krew-mózg. Sądzimy, że wciągając DHA w skład błony komórkowej, Mfsd2a tak zmienia jej skład, że nie sprzyja on powstawaniu tych specyficznych kaweoli - opowiada Andreone. Obecnie zespół Gu testuje przeciwciała, które mogą czasowo blokować działanie Mfsd2a i sprawdza, czy pośredniczoną przez kaweole transcytozę da się pozyskać dla dostarczania leków przez BKM. « powrót do artykułu
  3. Po dwóch latach tajnej misji w Kennedy Space Center na Florydzie wylądował wojskowy eksperymentalny dron X-37B. Urządzenie, które przypomina niewielki prom kosmiczny wylądowało w niedzielę na pasie startowym używanym w przeszłości przez promy kosmiczne. To już czwarta tajna misja X-37B. Obecna była najdłuższa. Trwała ponad 700 dni, w czasie których prom przeprowadzał bliżej nieokreślone eksprymenty na orbicie. US Air Force lakonicznie poinformowało, że eksperymenty dotyczyły „obniżenia ryzyka oraz koncepcji rozwoju i pracy technologii pojazdów kosmicznych wielokrotnego użytku”. Organizacja Secure World Foundation, która promuje pokojowe wykorzystanie przestrzeni kosmicznej, uważa, że utajnienie całego programu X-37B wskazuje, iż na pokładzie drona znajdowały się urządzenia służące wywiadowi. US Air Force posiada dwa bliźniacze drony X-37B zbudowane przez Boeinga. Długość tych pojazdów wynosi 9 metrów, a rozpiętość ich skrzydeł to 4,5 metra. X-37B, zwany też Orbital Test Vehicle (OTV), poleciał w pierwszą misję w kwietniu 2010 roku. Trwała ona 8 miesięcy. Kolejna została wystrzelona w marcu 2011, a dron wrócił po 15 miesiącach. Następny lot odbył się w grudniu 2012, a lądowanie nastąpiło 22 miesiące później. Jeszcze w bieżącym roku dron ma powrócić w przestrzeń kosmiczną. « powrót do artykułu
  4. Naukowcy z Uniwersytetu w Oksfordzie odkryli, że samce sikory bogatki (Parus major) wybierają sąsiadów z osobowością podobną do własnej. Brytyjczycy sprawdzali, czy osobowość ptaków wpływa na ich życie społeczne, a w szczególności na to, koło kogo decydują się gniazdować. W ciągu 6 kolejnych sezonów lęgowych biolodzy analizowali strukturę społeczną populacji dzikich sikor w Wytham Woods. Odkryliśmy, że samce, ale nie samice, są wybredne, jeśli chodzi o osobowość i optują za podobnie myślącymi sąsiadami. Nasze badania pokazują, że interakcje społeczne mogą odgrywać kluczową rolę w decyzjach zwierząt - podkreśla główna autorka badania, doktorantka Katerina Johnson. Tendencja samców, by zrzeszać się z innymi samcami o podobnej osobowości, może być szczególnie ważna w czasie sezonu lęgowego, gdy agresja osiąga swój szczyt. Samce zaciekle bronią swoich terytoriów i walczą o szanse na spółkowanie z samicami, dlatego bardziej nieśmiałe osobniki mogą unikać osiedlania się obok odważniejszych, bardziej agresywnych ptaków. Samice wybierają za to, gdzie się osiedlić, w oparciu o atrakcyjne cechy samców. Uzyskane wyniki pokazały, że na dobór osobowości wśród samców nie wpływają warunki środowiskowe. Tak jak studenci wybierający współlokatorów, ptaki mogą zwracać większą uwagę nie tyle na lokalizację, co na to, z kim dzielą przestrzeń mieszkalną - wyjaśnia Johnson. Tak jak my, zwierzęta przejawiają utrzymujące się w czasie, indywidualne różnice w zachowaniu, które można traktować jak cechy osobowościowe. Naukowcy testowali osobowość sikor bogatek, wprowadzając je do nowego środowiska i oceniając ich reakcje. O ile odważne ptaki badają otoczenie, o tyle nieśmiałe są ostrożniejsze i bardziej niepewne. Odkrycia [opisane na łamach pisma Animal Behaviour] mogą także pomóc w wyjaśnieniu ewolucji osobowości i tego, czemu osobniki z populacji różnią się pod względem zachowania. Wydaje się, że dobór naturalny nie faworyzuje konkretnego, "najlepszego" typu osobowości i że różne strategie behawioralne są tak samo dobre, w zależności od tego, kogo wybierzesz na sąsiada. Niewykluczone, że gniazdowanie w pobliżu osobników o podobnym charakterze zwiększa szanse na przeżycie i przekazanie genów następnym pokoleniom. O ile bowiem posiadanie np. odważniejszych sąsiadów skutkuje większą liczbą potyczek między samcami, o tyle może także zapewniać korzyści w postaci skuteczniejszego odstraszania intruzów. « powrót do artykułu
  5. Niemiecki Süddeutsche Zeitung donosi, że w styczniu bieżącego roku doszło do udanych ataków na system dwustopniowego uwierzytelniania transakcji handlowych. Zdaniem dziennikarzy hakerzy byli w stanie przechwycić SMS-y z kodem uwierzytelniającym. Było to możliwe dzięki błędowi w protokole SS7. To standardowy protokół używany przez operatorów na całym świecie do wymiany informacji pomiędzy sieciami operatorów. Istniejąca w nim dziura była znana od 2014 roku. Cyberprzestępcy odkryli sposób na przechwycenie SMS-ów, jakie bank wysyłał do klienta. Dzięki połączeniu tej techniki z atakiem phisingowym, podczas którego przestępcy – podszywając się pod bank ofiary – wysyłali e-maila starając się zdobyć dane dotyczące numeru konta bankowego, numeru telefonu i hasła, hakerzy mogli okradać klientów banków. Po zalogowaniu się do banku byli bowiem w stanie przechwycić SMS-a z hasłem uwierzytelniającym transakcję, mogli zatem np. przelać pieniądze z konta ofiary na własne. Ataki miały miejsce zwykle w nocy, gdyż wówczas istniało mniejsze prawdopodobieństwo, że ofiara zorientuje się, co się dzieje. Nie wiadomo, ile osób zostało w ten sposób okradzionych. Süddeutsche Zeitung twierdzi, że ofiarami padli niektórzy klienci firmy O2-Telefonica. Jednak powyższy sposób ataku działa w sieci każdego operatora telefonii komórkowej, zatem ofiar może być więcej. « powrót do artykułu
  6. W klasycznej informatyce informację zapisuje się w bitach, w informatyce kwantowej – w bitach kwantowych, czyli kubitach. Eksperymenty w Instytucie Chemii Fizycznej PAN w Warszawie udowadniają, że do przechowywania informacji nadaje się nie tylko fizyka, ale również chemia. Rolę chemicznego bitu – „chitu” – może pełnić prosty układ trzech stykających się kropel, w których zachodzą reakcje oscylacyjne. Komputer, smartfon, cyfrowy aparat fotograficzny – żadne z tych urządzeń nie mogłoby działać bez układów pamięci. W typowych pamięciach elektronicznych zera i jedynki są zapisywane, przechowywane i odczytywane za pomocą zjawisk fizycznych, takich jak przepływ prądu czy zmiana właściwości elektrycznych bądź magnetycznych nośnika. Dr inż. Konrad Giżyński oraz prof. dr hab. Jerzy Górecki z Instytutu Chemii Fizycznej Polskiej Akademii Nauk (IChF PAN) w Warszawie zademonstrowali działającą pamięć innego typu, zbudowaną w oparciu o zjawiska chemiczne. Pojedynczy bit jest tu przechowywany w trzech stykających się ze sobą kroplach, między którymi stabilnie, cyklicznie i w ściśle określony sposób propagują się fronty reakcji chemicznych. Chemicznym fundamentem pamięci skonstruowanej przez badaczy z IChF PAN są zachodzące w odpowiednio przygotowanych roztworach reakcje Biełousowa-Żabotyńskiego. Przebieg tych reakcji ma charakter oscylacji: gdy jeden cykl się kończy, w roztworze odtwarzają się reagenty niezbędne do rozpoczęcia kolejnego cyklu. Nim reakcja ustanie, zwykle dochodzi do kilkudziesięciu-kilkuset oscylacji. Towarzyszą im regularne zmiany koloru roztworu, za które odpowiada ferroina, katalizator reakcji. Drugim katalizatorem używanym przez warszawskich naukowców był ruten. Wprowadzenie rutenu miało kluczowe znaczenie, ponieważ powoduje on, że reakcja Biełousowa-Żabotyńskiego staje się światłoczuła tj. przy intensywnym oświetleniu roztworu światłem niebieskim przestaje on oscylować. Cecha ta pozwala kontrolować przebieg reakcji. Nasz pomysł na chemiczne zapisywanie informacji był prosty. Z wcześniejszych doświadczeń wiedzieliśmy, że gdy krople z reakcjami Biełousowa-Żabotyńskiego się stykają, fronty chemiczne mogą propagować z kropli do kropli. Postanowiliśmy więc poszukać jak najmniejszych układów kropel, w których wzbudzenia mogłyby zachodzić na kilka sposobów, przy czym przynajmniej dwa byłyby trwałe. Jednej sekwencji wzbudzeń moglibyśmy wtedy przyporządkować wartość logiczną 0, drugiej 1, a do przełączania układu między nimi, a więc do wymuszania określonej zmiany stanu pamięci, używać światła, wyjaśnia prof. Górecki. Doświadczenia przeprowadzano w naczyniu wypełnionym cienką warstwą roztworu lipidów w oleju (dekanie). Do tak przygotowanego układu za pomocą pipety wprowadzano niewielkie ilości roztworu oscylującego. Krople nanoszono w określone miejsca, nad końcówki światłowodów doprowadzonych pod spód naczynia. Aby krople nie ześlizgiwały się znad światłowodów, każdą unieruchomiono za pomocą kilku pręcików wystających z dna naczynia. Poszukiwania rozpoczęto od badań układów dwóch kropel. Mogą w nich zachodzić cztery rodzaje (mody) oscylacji: kropla nr 1 pobudza kroplę nr 2, kropla nr 2 pobudza kroplę nr 1, obie krople wzbudzają się jednocześnie, obie wzbudzają się naprzemiennie (tj. gdy jedna jest wzbudzona, druga dopiero powraca do stanu, w którym będzie mogła się ponownie wzbudzić). W układach dwóch kropel najczęściej jedna kropla wzbudzała drugą. Niestety, zawsze stabilny był tylko jeden mod tego rodzaju, a my potrzebowaliśmy dwóch, mówi dr Giżyński i tłumaczy: Obie krople powstają z tego samego roztworu, ale nigdy nie mają dokładnie tych samych rozmiarów. W efekcie w każdej kropli chemiczne oscylacje zachodzą w nieco innym tempie. W takich przypadkach kropla oscylująca wolniej zaczyna dopasowywać swój rytm do szybszej 'koleżanki'. Jeśli nawet udawało się wymusić światłem, żeby kropla oscylująca wolniej pobudzała kroplę oscylującą szybciej, układ i tak wracał do modu, w którym szybsza kropla wzbudza wolniejszą. Naukowcy z IChF PAN zajęli się więc trójkami stykających się kropel, rozmieszczonych na planie trójkąta (każda kropla stykała się zatem z dwiema sąsiednimi). Fronty chemiczne mogą tu się propagować na wiele sposobów: krople mogą oscylować jednocześnie, w przeciwfazach, dwie krople mogą oscylować jednocześnie i wymuszać oscylacje w trzeciej itp. Badaczy najbardziej ciekawiły mody rotacyjne, gdy fronty chemiczne przechodziły z kropli do kropli w sekwencji 1-2-3 lub w odwrotnym kierunku (czyli 3-2-1). Kropla, w której zachodzi reakcja Biełousowa-Żabotyńskiego, wzbudza się szybko, lecz znacznie dłużej powraca do stanu początkowego i dopiero gdy go osiągnie można ją wzbudzić ponownie. Gdyby więc w modzie 1-2-3 wzbudzenie doszło do kropli nr 3 zbyt szybko, nie przedostałoby się do kropli nr 1 by zainicjować nowy cykl, ta bowiem nie zdążyłaby „odpocząć”. W rezultacie mod rotacyjny by zanikł. Badacze z IChF PAN skoncentrowali się na modach rotacyjnych zdolnych do wielokrotnego powtórzenia cyklu wzbudzeń. Miały one dodatkową zaletę: krążące między kroplami fronty chemiczne przypominają falę spiralną, a fale tego typu cechują się zwiększoną stabilnością. Eksperymenty wykazały, że oba badane mody rotacyjne są trwałe i jeśli układ wejdzie w jeden z nich, pozostaje w nim aż do ustania reakcji Biełousowa-Żabotyńskiego. Potwierdzono też, że właściwie dobierając czas i długość oświetlenia odpowiednich kropel można zmieniać kierunek rotacji wzbudzeń. Układ trzech kropel, wielokrotnie obieganych przez fronty chemiczne, był więc zdolny do trwałego przechowywania jednego z dwóch stanów logicznych. Tak naprawdę nasz chemiczny bit ma nieco większe możliwości niż bit klasyczny. Mody rotacyjne, których używaliśmy do zapisu stanów 0 i 1, miały najkrótsze czasy oscylacji, równe odpowiednio 18,7 s i 19,5 s. Jeśli więc układ oscylował jakkolwiek wolniej, można było mówić o dodatkowym, trzecim stanie logicznym, komentuje dr Giżyński i zauważa, że ów trzeci stan mógłby być stosowany nie do przechowywania informacji, a na przykład do weryfikowania poprawności zapisu. Badania nad pamięcią zbudowaną z oscylujących kropel, sfinansowane ze środków Narodowego Centrum Nauki, miały charakter podstawowy i służyły wyłącznie zademonstrowaniu, że trwałe przechowywanie informacji za pomocą reakcji chemicznych jest możliwe. W nowo powstałej pamięci reakcje odpowiadały jedynie za utrzymanie informacji, podczas gdy jej zapis i odczyt nadal wymagały metod fizycznych. Nim zostanie skonstruowana w pełni chemiczna pamięć, która mogłaby się stać częścią przyszłego chemicznego komputera, najprawdopodobniej upłynie jeszcze wiele lat. « powrót do artykułu
  7. Światło inicjuje wiele reakcji chemicznych. W doświadczeniach w Centrum Laserowym Instytutu Chemii Fizycznej PAN i Wydziału Fizyki Uniwersytetu Warszawskiego po raz pierwszy wykazano, że w niektórych z tych reakcji cząsteczki pod wpływem intensywniejszego oświetlenia mogą reagować między sobą wyraźnie szybciej. W doświadczeniach przyspieszenie osiągnięto za pomocą podwójnych ultrakrótkich impulsów laserowych. Reakcje inicjowane światłem można przyspieszyć zwiększając intensywność ich oświetlenia, wykazały doświadczenia przeprowadzone w Instytucie Chemii Fizycznej Polskiej Akademii Nauk (IChF PAN) w Warszawie. W celu dokładnego zbadania natury zachodzących procesów, w eksperymentach użyto ultrakrótkich impulsów laserowych nadlatujących parami jeden po drugim i zanotowano wzrost szybkości reakcji zachodzącej między poszczególnymi cząsteczkami nawet o kilkadziesiąt procent. Obserwacje warszawskich naukowców zostały zrelacjonowane na łamach znanego czasopisma naukowego Physical Chemistry Chemical Physics. Nasze eksperymenty dostarczają fundamentalnej wiedzy o procesach fizycznych istotnych dla przebiegu ważnych reakcji indukowanych światłem. Wiedza ta potencjalnie może być użyta w wielu zastosowaniach, zwłaszcza tam, gdzie mamy do czynienia ze źródłami światła o dużej intensywności. Należą do nich m.in. różne techniki obrazowania mikroskopowego, ultraszybka spektroskopia, a także fotowoltaika, ze szczególnym uwzględnieniem urządzeń koncentrujących światło, takich jak kolektory słoneczne - mówi dr hab. Gonzalo Angulo (IChF PAN). W reakcjach inicjowanych światłem foton o odpowiedniej energii wzbudza cząsteczkę barwnika. Gdy blisko tak wzbudzonej cząsteczki znajdzie się cząsteczka wygaszacza, następuje interakcja: między obu reagentami dochodzi do transferu energii, elektronu lub protonu. Reakcje tego typu są w przyrodzie powszechne. Świetnym przykładem jest przeniesienie elektronu w fotosyntezie, pełniącej kluczową rolę w formowaniu ziemskiego ekosystemu. Okazuje się, że czynnikiem mogącym wpłynąć na przyspieszenie reakcji jest natężenie inicjującego je światła. W celu przebadania natury zachodzących procesów warszawscy chemicy zamiast tradycyjnego, ciągłego strumienia światła używali impulsów laserowych o czasie trwania rzędu milionowych części miliardowej sekundy (a więc femtosekundowych). Energię impulsów dobrano tak, by pod ich wpływem cząsteczki barwnika przechodziły do wzbudzonego stanu energetycznego. Impulsy zgrupowano w pary. Odstęp czasowy między impulsami w parze wynosił kilkadziesiąt pikosekund (bilionowych części sekundy) i był dopasowany do rodzaju reagujących cząsteczek i warunków środowiska roztworu. Teoria i same doświadczenia wymagały uwagi i ostrożności, jednak sama idea fizyczna jest tu dość prosta - zauważa mgr Jadwiga Milkiewicz, doktorantka z IChF PAN, po czym wyjaśnia: Żeby doszło do reakcji, w pobliżu wzbudzonej światłem cząsteczki barwnika musi się znaleźć cząsteczka wygaszacza. Jeśli więc mamy parę cząsteczek, które już ze sobą przereagowały, to znaczy, że były one dostatecznie blisko siebie. Zwiększając liczbę fotonów w czasie zwiększamy zatem szansę, że jeśli po reakcji obie cząsteczki zdążyły już wrócić do stanu podstawowego, to absorpcja nowego fotonu przez barwnik ma szansę zainicjować kolejną reakcję nim cząsteczki oddalą się od siebie w przestrzeni. Przebieg reakcji w roztworach zależy od wielu czynników, takich jak temperatura, ciśnienie, lepkość czy obecność pola elektrycznego bądź magnetycznego. Badania w IChF PAN udowodniły, że czynniki te mają wpływ także na wielkość przyspieszenia reakcji przy zwiększaniu intensywności oświetlenia. W niektórych warunkach przyspieszenie reakcji było niezauważalne, w optymalnych szybkość reakcji wzrastała nawet o 25-30%. W dotychczasowych doświadczeniach koncentrowaliśmy się na inicjowanych światłem reakcjach transferu elektronu, czyli takich, w wyniku których zmienia się ładunek elektryczny cząsteczek. Nie widzimy jednak powodów, by zaobserwowany przez nas mechanizm nie mógł funkcjonować także w innych odmianach tych reakcji. Dlatego w najbliższym czasie spróbujemy potwierdzić jego skuteczność w reakcjach z transferem energii oraz z transferem protonu - mówi dr Angulo. Oprócz fizyków i chemików z IChF PAN i Wydziału Fizyki Uniwersytetu Warszawskiego, finansowanych z grantu HARMONIA Narodowego Centrum Nauki, w części eksperymentalnej uczestniczyła grupa prof. Gunthera Gramppfa z Politechniki w Grazu. W austriackim laboratorium wykonano doświadczenia porównawcze na próbkach oświetlanych w sposób ciągły. W prace teoretyczne zespołu był także zaangażowany dr Daniel Kattnig z Uniwersytetu w Oksfordzie. Informacja prasowa zrealizowana ze środków europejskiego grantu ERA Chairs w ramach programu Horizon 2020. « powrót do artykułu
  8. Poszukiwania życia we wszechświecie przeszły z fazy spekulacji do fazy nauki opierającej się na faktach. Z taką opinią zgodzili się uczestnicy Breakthrough Discuss Conference, którzy omawiali sposoby poszukiwania życia poza Układem Słonecznym. Już teraz wiemy, że w promieniu 30 lat świetlnych od nas znajduje się co najmniej kilkanaście egzoplanet podobnych do Ziemi i dziesiątki systemów, w których mogą znajdować się kolejne takie planety. Wiemy, że już zidentyfikowane egzoplanety są skaliste, mają podobną wielkość i gęstość do Ziemi i znajdują się w takiej odległości od swoich gwiazd macierzystych, która pozwala na istnienie wody w stanie ciekłym. Jest jednak jedna duża różnica pomiędzy tymi planetami, a Ziemią. Krążą one wokół gwiazd innych niż Słońce. Nasze Słońce to żółty karzeł. Gwiazdy tego typu są jasne i stosunkowo niewielkie w porównaniu w wieloma innymi gwiazdami. Nie występują one zbyt często. W naszym sąsiedztwie jest zaledwie 20 żółtych karłów, za to około 250 czerwonych karłów, gwiazd mniejszych, ciemniejszych i chłodniejszych od Słońca. Zapewne podobnie jest w całym wszechświecie, czerwonych karłów jest znacznie więcej. Podczas ostatnich 3-4 lat okazało się, że każda z takich mniejszych od Słońca gwiazd ma w sąsiedztwie co najmniej jedną planetę. Jak powszechne są planety krążące wokół gwiazd o niewielkiej masie? Bardzo powszechne, mówiła Courtney Dressing, astronom z Uniwersytetu Kalifornijskiego w Berkeley. Wokół czerwonych karłów typu widmowego M krąży średnio 2,5 planety. Wokół 25% takich gwiazd znajduje się planeta tej samej wielkości i o tej samej temperaturze powierzchni co Ziemia. Biorąc pod uwagę dane, jakimi obecnie dysponujemy, możemy stwierdzić, że w odległości do 32 lat świetlnych od Ziemi powinno znajdować się co najmniej 60 planet podobnych do Ziemi, które krążą w ekosferze swoich planet. Dotychczas niemal wszystkie znane nam egzoplanety zostały odkryte przez Teleskop Keplera. Urządzenie to bada jednak planety wokół dużych czerwonych karłów. Wkrótce jednak będziemy dysponowali teleskopami zdolnymi do badań średnich i małych czerwonych karłów. Może się wówczas okazać, że nie 25% a 33% gwiazd tego typu ma podobne do Ziemi planety w ekosferach. Lepsze teleskopy pozwolą nie tylko zauważyć planety wokół mniejszych gwiazd. Możliwe będzie też częstsze ich obserwowanie. Ekosfera mniejszych chłodniejszych gwiazd znajduje się bliżej samej gwiazdy, co oznacza, że znajdujące się w niej planety krążą po ciaśniejszych orbitach, a skoro tak, to częściej będzie można obserwować ich przejścia na tle gwiazd. To zaś oznacza zdobycie większej ilości informacji w krótszym czasie. Wielu uczestników konferencji, w tym Mercedes López-Morales z Harvard Center for Astrophysics, opowiadało, w jaki sposób będą prowadzone badania atmosfery tych egzoplanet. Mówiąc najkrócej jak to tylko możliwe, będziemy szukali tlenu. Na Ziemi pojawienie się tlenu jest powiązane z pojawieniem się życia. To jeden czynnik, czyniący tlen tak interesującym. Ponadto tlen łatwo wchodzi w reakcje z innymi pierwiastkami. Jeśli więc występuje w atmosferze oznacza to, że coś go ciągle wytwarza. I bardzo prawdopodobne, że tym czymś są organizmy żywe. Uczeni będą więc szukali w atmosferach egzoplanet tlenu, wodoru i metanu. Jednak takie podejście ma też wady. Atmosfera planety ma zwykle około 1% jej średnicy. Ma więc bardzo słabą sygnaturę. Trzeba wykonać około biliona zdjęć, by mieć pewność, że mamy do czynienia z sygnałem charakterystycznym dla tlenu, mówi López-Morales. Na szczęście nowe teleskopy będą gotowe do wykonania takiego zadania. Mniej więcej w drugim kwartale przyszłego roku gotowy będzie Transiting Exoplanet Survey Satellite (TESS). W czasie dwuletniej misji przyjrzy się on 200 000 gwiazd. W 2022 roku ma ruszyć Giant Magellan Telescope o rozdzielczości 10-krotnie większej niż rozdzielczość Teleskopu Hubble'a. Będzie on wyposażony w spektrograf G-CLEF, zdolny do zauważenia sygnatury tlenu w atmosferach odległych planet. W końcu w roku 2024 zostanie uruchomiony Extremely Large Telescope, którego światłosiła będzie większa niż łączna światłosiła wszystkich ziemskich teleskopów o średnicy 8-10 metrów. W najbliższych latach astrobiologia zyska więc świetne instrumenty do poszukiwania życia we wszechświecie. Skądinąd wiemy jednak, że życie może obywać się bez tlenu czy światła. Na razie jednak nikt nie ma pomysłu, jak takie życie odnaleźć. Pozostaje nam więc oczekiwanie na coraz bardziej doskonałe instrumenty badawcze lub trzymanie kciuków za powodzenie misji Breakthrough Starshot. « powrót do artykułu
  9. Badania zespołu ze Scuola Internazionale Superiore di Studi Avanzati wykazały, czemu poddani głębokiej stymulacji jądra niskowzgórzowego Luysa (ang. deep brain stimulation of the subthalamic nucleus, STN-DBS) pacjenci z chorobą Parkinsona tyją. Jądro niskowzgórzowe Luysa odpowiada za subiektywną wartość nagrody i kontrolę hamowania, dwa kluczowe aspekty kontroli jedzenia, dlatego Włosi oceniali, czy przyrost wagi u parkinsoników po STN-DBS nie wiąże się właśnie ze zmianą funkcji nagradzania i hamowania. Autorzy publikacji z pisma Cortex monitorowali grupę pacjentów przed i po interwencji. Oceniano aspekty poznawcze, psychologiczne i behawioralne. Okazało się, że przyrost wagi wiąże się m.in. z podwyższoną impulsywnością, dłuższym czasem choroby i ograniczeniem leczenia farmakologicznego. Badanie przeprowadzono we współpracy z Santa Maria della Misericordia University Hospital w Udine. Wzięło w nim udział 18 pacjentów z parkinsonem i 18 zdrowych ochotników. Pacjentów poddawano ocenie w 3 fazach: przed operacją, 5 dni po niej i po upływie 3 miesięcy. Cały czas poddawano ich leczeniu farmakologicznemu, ale dawkę leków stopniowo obniżano. Podczas ostatniej oceny aktywny był też stymulator - wyjaśnia Marilena Aiello. By ocenić natężenie depresji, anhedonii (niezdolności do odczuwania przyjemności) oraz impulsywności, ochotnicy wypełniali zestaw kwestionariuszy; odpowiednio Skalę Depresji Becka (ang. Beck Depression Inventory, BDI), Skalę Przyjemności Snaitha i Hamiltona (ang. Snaith–Hamilton Pleasure Scale, SHAPS) i skalę BIS-11 (ang. Barratt Impulsiveness Scale). Włosi dawali im też zadania, które pozwalały określić wrażliwość na nagrody pokarmowe oraz impulsywne reakcje na jedzenie (do oceny procesów hamowania zastosowano test kontroli reakcji idź/nie idź - go/no-go task, GNG). Nasze wyniki potwierdziły, że w miesiącach po operacji ludzie znacząco tyli. Przyrost wagi był większy u pacjentów z silniejszą przedoperacyjną impulsywnością uwagową (przejawiająca się np. tendencją do podejmowania nagłych decyzji), a także większą ochotą na niskokaloryczne pokarmy oraz impulsywnością w zadaniach GNG w fazie 3., czyli przy jednoczesnej farmakoterapii i włączonym stymulatorze. Istotne były także [...] cechy związane z chorobą, w tym czas jej trwania i zmniejszenie obciążenia farmakologicznego [lewodopą]. « powrót do artykułu
  10. Każdy z nas wielokrotnie słyszał, że w późniejszym wieku już nie można nauczyć się wielu rzeczy. Nasze mózgi mają ponoć nie przyswajać pewnych wiadomości. Jesteśmy przekonywani, że po przekroczeniu jakiejś magicznej graniczy nie nauczymy się już nowego języka, nie nabędziemy nowych umiejętności. Mity te obala profesor psychologii Rachel Wu z Uniwersytetu Kalifornijskiego w Riverside. Na łamach pisma Human Development opublikowała ona artykuł pod tytułem A Novel Theoretical Life Course Framework for Triggering Cognitive Development Across the Lifespan. Profesor Wu twierdzi, że w przeciągu życia przechodzimy od okresu szerokiego uczenia się, gdy jako dziecko nabywamy wiele różnych umiejętności, do uczenia wyspecjalizowanego, kiedy to zaczynamy pracę i stajemy się ekspertami w pewnej dziedzinie. Ta zmiana prowadzi, zdaniem Wu, do początkowego spadku zdolności poznawczych. Może on dotyczyć dziedzin nam obcych, jak i dziedzin obcych oraz tych, w których się specjalizujemy. Uczona argumentuje, że powinniśmy uznać to za jeden z etapów naszego rozwoju poznawczego, a nie stwierdzać, że nie jesteśmy już w stanie uczyć się pewnych rzeczy. Jeśli w ten sposób zmienimy podejście, to będziemy mogli opracować nowe taktyki, które znakomicie poszerzą nasze zdolności poznawcze i poprawią jakość naszego życia w starszym wieku. Zdaniem uczonej szczególnie ważne jest przyjęcie strategii szerokiego uczenia się, która pomaga dzieciom w rozwoju. Wu i jej współpracownicy wymieniają sześć czynników charakteryzujących tę strategię. Są to: 1. otwarty umysł i nauka poprzez nabywanie nowych umiejętności, wzorców, wychodzenie poza naszą specjalizację i opuszczanie własnej strefy komfortu; 2. zindywidualizowany tryb uczenia się, stały dostęp do nauczycieli i mentorów prowadzących naukę; 3. wytrwałość, uwierzenie, że trening czyni mistrza; 4. radzenie sobie z porażkami, czyli uznanie, że możemy popełniać błędy, nie wszystko się nam uda; 5. zaangażowanie, czyli ciągłe doskonalenie umiejętności, niepoddawanie się przeciwnościom losu; 6. jednoczesne nabywanie wielu różnych umiejętności. Naukowcy zauważają, że w miarę, jak rośniemy i przechodzimy od szerokiego uczenia się do uczenia wyspecjalizowanego, tracimy opisane powyżej umiejętności i zdolności. Powinniśmy do nich wrócić, gdyż są one przeciwieństwem uczenia wyspecjalizowanego. W uczeniu wyspecjalizowanym, jakie ma miejsce np. w pracy zawodowej, mamy bowiem do czynienia z: 1. umysłem zamkniętym na specjalizacji, skupieniem się na rutynie, pozostawaniem w strefie komfortu; 2. braku indywidualizmu, braku dostępu do ekspertów i nauczycieli; 3. zaczynamy wierzyć, że wiele zdolności jest wrodzonych, zatem istnieją rzeczy, których nie możemy się nauczyć; 4. boimy się porażek, gdyż niosą one ze sobą przykre konsekwencje, jak np. utrata pracy; 5. brakuje nam zaangażowania i wytrwałości, dorośli często znajdują sobie jakieś hobby, ale po paru miesiącach je porzucają, czy to z powodu braku czasu, czy z powodu piętrzących się trudności; 6. uczymy się jednej rzeczy w jednym czasie. Profesor Wu i jej współpracownicy uważają, że poznawcze starzenie się rozpoczyna się wówczas, gdy przechodzimy z szerokiego uczenia się do uczenia się wyspecjalizowanego. Odnosimy dzięki temu sporo korzyści, zwiększa się nasza codzienna efektywność, ale z drugiej strony przyjmujemy złe założenia dotyczące naszych możliwości i trudno jest nam te założenia pokonać. Wciąż musimy poprzeć naszą teorię odpowiednimi badaniami naukowymi, ale pragniemy zauważyć, że opracowaliśmy ją na podstawie 5 dekad badań nad zdolnościami poznawczymi człowieka. Chcę, by dorośli uwierzyli, że mogą nauczyć się wielu nowych rzeczy w każdym wieku. Potrzeba jedynie czasu i zaangażowania. Bardzo trudne jest przekonanie dorosłych i samych siebie do uczenia się nowych rzeczy. I być może dlatego poznawcze starzenie się jest, przynajmniej w niektórych aspektach, czymś, czym sami się ograniczamy – mówi Wu. « powrót do artykułu
  11. Podczas nurkowania w Morzu Egejskim w 2011 r. biolodzy nagrali burzliwe spółkowanie mątw. Niczym w dramacie, były porwania, walki i próby odbicia. Zdarzenie sfilmowali Derya Akkaynak z Uniwersytetu w Hajfie i Justine Allen z Brown University. Udało się to podczas nurkowania z opiekunem naukowym pracy doktorskiej Allen - Rogerem Hanlonem. W analizie zachowania pomagała Alexandra Schnell z Uniwersytetu w Caen. Artykuł na ten temat ukazał się w piśmie American Naturalist. Choć naukowcy badali starające się o samicę samce i zachowania godowe w laboratorium, obserwacja złożonych interakcji samców (ich walk i pilnowania samicy) u dzikich mątw to coś, co dotąd biologom się wymykało. To zupełnie nieoczekiwana sekwencja wideo, której szukałem non stop przez 20 lat - podkreśla Hanlon. Początkowo Akkaynak i Allen filmowali samicę. Później pojawił się samiec i para zaczęła spółkować. Gdy głowonogi pływały po okolicy, nadpłynął drugi samiec. W pewnym momencie udało mu się ukraść samicę pierwszemu partnerowi. "Złodziej" próbował odstraszyć rywala m.in. wyprostowanym ramieniem czy zmianą barw. Ostatecznie, gdy drugi samiec chciał rozpocząć kopulację, doszło do brutalnej walki z wyrzutami sepii. Kto wygrał, można zobaczyć na filmie (końcówkę zdarzeń dokręcił Hanlon). Mątwy mają cały repertuar zachowań sygnalizacyjnych. Dopiero zaczynamy rozumieć niektóre z nich. Większość bitw to de facto piękne pokazy skórne. Mamy do czynienia z [...] wojną barw - wyjaśnia Allen. Choć naukowcom udało się udokumentować zaledwie jedną walkę mątw, analiza przebiegu zdarzeń i porównanie z wynikami uzyskanymi w laboratorium wskazują, że zachowanie głowonogów pasuje do modelu wzajemnej oceny teorii gier, gdzie każdy ocenia swoje następne działanie, bazując na zdolności do zdobycia przewagi przez siebie i przeciwnika (nie działa się wyłącznie w oparciu o ocenę własnych możliwości). Wskazując na inteligencję konieczną do takiego działania, Hanlon wspomina o przeprowadzeniu odpowiednio zaplanowanych eksperymentów laboratoryjnych. « powrót do artykułu
  12. Najpotężniejszy na świecie laser na promienie X, European XFEL, w którego budowie uczestniczyli też Polacy, wygenerował pierwsze światło. To niezwykle ważne osiągnięcie przed planowanym na wrzesień oficjalnym otwarciem. Cała infrastruktura badawcza liczy sobie 3,4 kilometra długości, z czego większość znajduje się w podziemnych tunelach. Wchodzący w jej skład laser wygenerował światło o długości fali 0,8 nm, czyli 500-krotnie krótszej niż światło widzialne. Obecnie laser pracuje z częstotliwością 1 Hz, zatem generuje 1 impuls na sekundę. Z czasem częstotliwość ta zostanie zwiększona do 27 kHz (27 000 impulsów na sekundę). To wielki sukces międzynarodowej współpracy naukowej w Europie i na całym świecie. Możemy teraz rozpocząć kierowanie impulsów promieniowania X za pomocą specjalnych luster przez ostatnią sekcję tunelu do sali, gdzie przeprowadzane będą eksperymenty – powiedział dyrektor European XFEL profesor Robert Feidenhans. Zdaniem Helmuta Doscha, przewodniczącego Dyrektoriatu DESY (Niemiecki Synchrotron Elektronowy), jesteśmy świadkami początku nowej ery badań naukowych w Europie. Dosch podkreślił, że budowa European XFEL przebiegła zgodnie z planem i zmieszczono się w budżecie. Światło generowane przez laser w European XFEL jest niezwykle intensywne i około miliard razy jaśniejsze niż światło tworzone w synchrotronach. Może on generować fale o długościach średnicy atomu, a to oznacza, że możliwe będzie obrazowanie struktur w skali atomowej, takich jak np. molekuły. Uczeni będą mogli obejrzeć też przebieg reakcji chemicznych, European XFEL przyda się również podczas badań materiałowych czy badania zjawisk zachodzących we wnętrzach planet. Światło w European XFEL jest generowane ze strumienia elektronów w nadprzewodzącym akceleratorze liniowym. Jego tunel ma długość 2,1 kilometra. Strumienie elektronów są tam znacznie przyspieszane i przygotowywane do wygenerowania promieniowania X. Elektrony poruszają się z prędkością bliską prędkości światła i wpadają do liczącego 210 metrów długości urządzenie generującego promienie X. Znajduje się w nim 17 290 magnesów stałych, których pola magnetyczne wchodzą w interakcje z elektronami. Takie magnetyczne struktury, zwane indulatorami, powodują, że elektrony poruszają się slalomem, a przy każdej zmianie kierunku generują krótki impuls promieniowania rentgenowskiego, który jest wzmacniany wzdłuż indulatora. Liczący 3,4 kilometra European XFEL to największy i najpotężniejszy z pięciu istniejących na świecie instalacji generujących promienie X. Po jego oficjalnym otwarciu będą mogli z niego korzystać naukowcy z całego świata. « powrót do artykułu
  13. Co najmniej 5 wilków, w tym jedna wadera, pojawiło się w Danii po raz pierwszy od ponad 200 lat. Wilki przybyły z Niemiec i osiedliły się na rolniczych terenach zachodniej Danii. Peter Sunde z Uniwersytetu w Aarhus uważa, że musiały przebyć ponad 500 km. Sądzimy, że to młode wilki odrzucone przez rodziny, które szukały nowych terenów łowieckich. Na podstawie DNA z odchodów naukowcy ustalili profil genetyczny 5 osobników. Niewykluczone jednak, że wilków jest więcej. Sunde podkreśla, że specjaliści już od 5 lat podejrzewali, że wilki pojawiły się w Danii (w 2012 r. widziano je w północno-zachodniej Jutlandii, w Parku Narodowym Thy). Teraz [wreszcie] mamy dowody, że naprawdę są i że jest wśród nich jedna samica [co daje nadzieję na pojawienie się potomstwa]. Naukowcy mają nie tylko dowody z odchodów; dysponują też tropami i nagraniem pokazującym obszar, gdzie wilki mieszkają. Z obawy przed myśliwymi nie ujawniają jednak tych informacji. Wilki zostały wytrzebione i nie występowały w Danii od początku XIX w., a konkretnie od 1813 r., gdy został zastrzelony ostatni osobnik. « powrót do artykułu
  14. Jak donosi serwis Ahram Online archeolodzy odnaleźli unikatowy liczący sobie 4000 lat ogród pogrzebowy. Odkryto go w nekropolii Draa Abul Naga położonej przy Dolinie Królów. Ogród został odkopany przez hiszpańską misję archeologiczną przy grobowcu z okresu Średniego Państwa. Misja ta prowadziła prace wokół grobowca generała Djehuty, który służył pod faraonem Totmesem III (1458-1425 p.n.e) z XVIII dynastii, czyli z już z okresu Nowego Państwa. Ogród mierzy 3x2 metry i został podzielony na kwadraty o boku około 30 centymetrów. Wydaje się, że w każdym z kwadratów uprawiano inne rośliny. W środku ogrodu znajdują się dwa niewielkie wyniesienia, na których mogły rosnąć drzewka lub krzewy. W jednym z rogów znaleziono korzenie i pień drzewka o długości około 30 centymetrów. Obok znajdowała się miska z suszonymi daktylami i innymi owocami. To prawdopodobnie ofiara. !RCOL Odkrycie ogrodu może rzucić światło na środowisko naturalne i sposoby uprawy w starożytnych Tebach w Średnim Państwie około roku 2000 przed Chrystusem, powiedział profesor Jose Galan, kierownik hiszpańskiej misji archeologicznej. Uczony mówi, że dotychczas podobne ogrody znajdowano przy grobowcach z okresu Nowego Państwa, gdzie za pomocą drzew wyznaczały one wejście do miejsca pochówku. Prawdopodobnie ogrody takie miały znaczenie symboliczne i odgrywały jaką rolę w rytuałach pogrzebowych. Profesor Galan podkreśla, że nigdy wcześniej nie znaleziono podobnego ogrodu w Tebach, a odkrycie jego zespołu potwierdza to, co o kulturze i religii starożytnego Egiptu wiedzieliśmy dotychczas tylko z ikonografii. Ogród to jednak nie jedyne fascynujące znalezisko. W pobliżu wejścia do tego samego grobowca z okresu Średniego Państwa znaleziono, przylepioną do jego fasady, niewielką kapliczkę o wymiarach 46x70x55 centymetrów, a wewnątrz niej znajdowały się dwie stele z okresu XIII dynastii, z około 1800 roku przed Chrystusem. Wstępne badania wykazały, że właściciel jednej z nich nazywał się Renef-Seneb, a właścicielem drugiej był obywatel Khemenit, syn pani Idenu. Ta druga stela wymienia bogów Montu, Ptaha, Sokara i Ozyrysa. Odkrycia te podkreślają znaczenie centralnego obszaru Dra Abul Naga jako świętego miejsca odbywania różnych obrzędów religijnych w czasach Środkowego Państwa, mówi Galan. Hiszpanie od 16 lat pracują w pobliżu grobowca Djehuty. « powrót do artykułu
  15. Słonie indyjskie są nosicielami herpeswirusów typu 1., 4. i 5., zaś słonie afrykańskie typu 2., 3. i 6. Typ 1. jest szczególnie niebezpieczny dla młodych słoni indyjskich i prowadzi do licznych zgonów zwierząt dzikich i mieszkających w zoo. Dotąd w dużej mierze nie było jednak wiadomo, jak słonie transmitują chorobę (nazywaną niekiedy opryszczką słoni) i jak się zarażają. Od jakiegoś czasu badacze są w stanie wykorzystać próbki z płukania trąby do stwierdzenia, czy słonie są zakażone i czy rozsiewają wirus. Słonie można wytresować, by płukać im trąby roztworem soli fizjologicznej. Podnoszą wtedy na krótko trąby, by ciecz spłynęła do tyłu tak daleko, jak to możliwe, a następnie wypuszczają wszystko do wiadra - wyjaśnia Jean-Michel Hatt, dyrektor Kliniki dla Zwierząt z Zoo na Uniwersytecie w Zurychu (UTZ). Pozyskane w ten sposób próbki testowano pod kątem herpeswirusów w Instytucie Wirusologii UTZ. Słonie, które zbadaliśmy, można podzielić na te, które nie rozsiewają wirusa lub robią to z rzadka i te, które rozsiewają go często. Te ostatnie osobniki są też nazywane superrozsiewaczami, odpowiedzialnymi za większość zakażeń - opowiada Mathias Ackermann. Superrozsiewacze występują też wśród innych zwierząt i ludzi. Takie osobniki zakażają, lecz same są odporne na chorobę i przekazują tę odporność potomstwu. Sytuacja staje się groźna, gdy superrozsiewacz spotka się z młodymi nierozsiewaczy. Samica słonia, która podczas studium najczęściej rozsiewała wirusa, miała np. bliską styczność z wszystkimi 3 cielętami, które zmarły w Szwajcarii z powodu herpeswirusa. Wszystkie młode były nosicielami wirusa podtypu 1A, co wskazuje na wspólne źródło infekcji. Zmarłe zwierzęta były potomkami nierozsiewaczy (dzieciom superrozsiewaczy nic się nie stało). Opryszczka słoni nie jest po prostu chorobą ogrodów zoologicznych, bo występuje także u dzikich zwierząt - zaznacza Ackermann. Herpeswirusy słoni oddzieliły się od innych herpeswirusów, gdy słonie oddzieliły się od pozostałych ssaków. Od tego czasu azjatyckie i afrykańskie ich typy jeszcze się rozwinęły. Poszczególne typy różnią się zjadliwością. Specjaliści z Zurychu uważają, że podstawą jest regularne testowanie słoni pod kątem obecności wirusa. Rozmieszczenie zwierząt może być tak planowane, by cielęta były mniej narażone. « powrót do artykułu
  16. Po koniec kwietnia w polu w miejscowości Hegra niezbyt daleko od portu lotniczego Trondheim-Værnes odkryto liczne obuchy toporów, a także ostrze noża. Datują się one na późną epokę brązu (ok. 1100-500 r. p.n.e.). Na światło dzienne wydobyli je archeolodzy z Muzeum Norweskiego Uniwersytetu Nauki i Technologii (NTNU) oraz rady okręgu Nord-Trøndelag. Pomagało im 6 hobbystów z wykrywaczami metali. Pierwszego odkrycia na tym obszarze dokonali jeszcze w styczniu bracia Joakim i Jørgen Korstadowie z gminy Stjørdal. Natrafili oni na 9 siekierek z tulejką, grot włóczni, formę do odlewu, a także fragment najprawdopodobniej brązowej lury. Poszukiwacze skarbów skontaktowali się z archeologiem okręgu Eirikiem Solheimem. Obecnie na skarb z Hegry składa 30 artefaktów z epoki brązu. Specjalną część odkrycia stanowią 24 topory. Wcześniej w Norwegii nigdy nie odkryto tak wielu siekier w jednym miejscu. Takie znaleziska są też rzadkie w kontekście skandynawskim - podkreśla Merete Moe Henriksen z Wydziału Archeologii i Historii Kulturalnej NTNU. Nie wiadomo, czemu 3 tys. lat temu zakopano te wszystkie obiekty. Być może w grę wchodziły względy religijne związane ze składaniem ofiary. Albo artefakty miały zostać ukryte tylko czasowo, z myślą o późniejszym przetopieniu metalu (to znana praktyka z późnej epoki żelaza). Gmina Stjørdal jest znana ze sztuki naskalnej. Solheim myślał o stworzeniu muzeum, ale dotąd brakowało eksponatów do wystawienia. Wiedzieliśmy, że na tym terenie prowadzono wiele różnych działań, ale brakowało artefaktów. Teraz, gdy znaleziono to wszystko, mamy więcej, niż moglibyśmy prosić. Archeolodzy myślą o kolejnych wykopaliskach jesienią tego roku. Pozwoliłoby im to lepiej zrozumieć kontekst znaleziska. « powrót do artykułu
  17. Hiszpańscy naukowcy przybliżyli się nieco do wyjaśnienia, w jaki sposób wino chroni nasze neurony. Zamiast skupiać się bezpośrednio na winie, badali związki, które pozostają po przejściu wina przez przewód pokarmowy. Wybrali zestaw substancji, opierając się na ich obecności w moczu i kale ludzi spożywających regularnie umiarkowane ilości wina. By ocenić ich neuronalny wpływ, dodali je do hodowli poddawanych stresowi (zwykle prowadzi to do dysfunkcji komórek i śmierci). Warunki takie występują na początkowych etapach niektórych chorób neurodegeneracyjnych. Okazało się, że wybrane związki zabezpieczały neurony przed obumieraniem w warunkach stresu. Najważniejszym odkryciem było to, że metabolity były aktywne w różnych punktach komórkowej kaskady sygnalizacyjnej, która prowadzi do śmierci. Dla ochronnego wpływu na neurony potrzebna jest więc konkretna kompozycja metabolitów, a ta zależy od składu mikrobiomu. Indywidualne różnice w mikrobiomie to czynnik, którego nie wolno nie uwzględnić podczas analizowania zdrowotnego wpływu różnych pokarmów - podkreśla dr Adelaida Esteban-Fernández z Instytutu Badania Żywności w Madrycie. Nie zalecam zastąpienia leków dietą, ale chcę zwiększyć społeczną świadomość, jak dieta pomaga w zapobieganiu chorobom [...]. Łatwo pójść do supermarketu i kupić warzywa i owoce: utrzymanie zbilansowanej diety zależy tylko od danego człowieka. « powrót do artykułu
  18. Nawet najbardziej naturalne głosy z komputera brzmią sztucznie. Jednak dzięki pracy kanadyjskiej firmy Lyrebird już wkrótce może się to zmienić. Tworzy ona bowiem system sztucznej inteligencji, która jest w stanie naśladować głos dowolnej osoby. Zaprezentowany w ubiegłym tygodniu system jest w stanie wygenerować tysiące zdań w ciągu sekundy. Działa więc znacznie szybciej niż inne tego typu programy. Potrafi też naśladować dowolny głos, co budzi poważne zastrzeżenia natury etycznej. Wygenerowanie naturalnie brzmiącego głosu to od dawna cel systemów przekładających tekst pisany na mowę. Systemy takie rozwijają Microsoft, Google, Amazon czy Apple. Działają one dzięki łączeniu wyrazów i zdań z wcześniej nagranego pliku z konkretnym głosem. Zmiana głosu wymaga dostępu do pliku z nagranym każdym możliwym wyrazem potrzebnym do komunikowania się z urządzeniem. System Lyrebird działa inaczej. Jest on w stanie, na podstawie wysłuchania wielu godzin nagrania audio, nauczyć się wymowy liter, fonemów i wyrazów. Po takim treningu potrafi samodzielnie tworzyć nowe zdania, dodawać intonację czy emocje. Lyrebird korzysta z sieci neuronowych, które działają podobnie do ludzkiego mózgu. Wykorzystują techniki głębokiego uczenia się do przekładania poszczególnych dźwięków na mowę. Po tym, jak system nauczy się generować mowę, wystarczy mu jednominutowe nagranie audio danej osoby, by mówić jej głosem. Po nauczeniu się wielu głosów dodanie każdego kolejnego odbywa się bardzo szybko. Dlatego też nie potrzebujemy zbyt wielu danych, by nauczyć Lyrebird całkowicie nowego głosu. Oczywiście im więcej danych, tym lepiej, ale już jednominutowe nagranie wystarczy, by system wyłapał wiele cech charakterystycznych nowego głosu, mówi współtwórca Lyberbird Alexandre de Brebisson, doktorant na Uniwersytecie w Montrealu. Lyrebird zaprezentowało swój nowy system, prezentując wygenerowane przezeń głosy Baracka Obamy, Donalda Trumpa i Hillary Clinton, które to głosy informują o powstaniu systemu Lyrebird. Trzeba przyznać, że Kanadyjczykom udało się osiągnąć świetne wyniki. Ich system nie jest jednak doskonały. Podczas generowania głosów tworzony jest szum w tle, pozostaje wrażenie pewnej sztuczności, nie zaimplementowano też dźwięków wydawanych przez ruch ust, policzków czy wydychane powietrze. Najpewniej musimy jeszcze poczekać kilka lat zanim powstaną systemy potrafiące w czasie rzeczywistym naśladować w sposób przekonujący głos dowolnej osoby. Jednak system Lyrebird jest już na tyle doskonały, że wiele osób da się oszukać, jeśli z zaskoczenia usłyszą wygenerowaną przezeń wypowiedź. To oczywiście budzi wiele zastrzeżeń natury etycznej. Doskonałe systemy tego typu będą bowiem w stanie włożyć w usta dowolnej osoby słowa, których nigdy nie wypowiedziała. « powrót do artykułu
  19. Ekspozycja na zapach olejku rozmarynowego może znacząco poprawić pamięć roboczą u dzieci. Nasze wcześniejsze badanie pokazało, że zapach olejku rozmarynowego może poprawić funkcjonowanie poznawcze u zdrowych dorosłych. Wiedząc, jak ważna jest pamięć robocza dla osiągnięć szkolnych, chcieliśmy sprawdzić, czy podobne skutki uda się uzyskać u dzieci w warunkach klasy szkolnej - wyjaśnia dr Mark Moss z Uniwersytetu Northumbrii. W sumie eksperyment objął 40 dzieci w wieku 10-11 lat, które wykonywały w klasie różne zadania intelektualne. Losowano je do grupy, gdzie w pomieszczeniu przez 10 min rozpylano olejek rozmarynowy i do grupy kontrolnej, w przypadku której klasa była "bezzapachowa". Dzieci badano pojedynczo. Podczas testu siedziały przy ławce naprzeciw nauczyciela. Po przedstawieniu się uczniowi nauczyciel mówił: "Jesteś tu, by zagrać w różne gry pamięciowe. Nie denerwuj się, proszę, ale daj z siebie wszystko, by zapamiętać, co do ciebie powiem". Okazało się, że dzieci z pokoju pachnącego rozmarynem osiągały znacząco lepsze wyniki. Największą różnicę w punktacji odnotowano w zadaniu polegającym na przypominaniu słów. Na razie nie wiadomo, czemu i jak rozmaryn działa w ten sposób. Możliwe, że aromaty wpływają na aktywność elektryczną mózgu lub że podczas ekspozycji dochodzi do wchłaniania aktywnych farmakologicznie substancji. Wiemy, że słaba pamięć robocza wiąże się ze słabymi osiągnięciami szkolnymi, a nasze odkrycia wskazują na prosty sposób zapobiegania temu zjawisku. Przyszedł czas na testy zastosowania aromatu w warunkach edukacyjnych na dużą skalę - podsumowuje Moss. « powrót do artykułu
  20. NASA zakończyła prowadzone w Goddard Space Flight Center (Maryland) testy Teleskopu Kosmicznego Jamesa Webba (JWST). Urządzenie zostało przygotowane do przewiezienia na kolejne testy do Johnson Space Center (Teksas). Ostatnie lustra tego największego w historii teleskopu kosmicznego trafiły do Goddard w 2014 roku. Po ponad 20 latach prac budowa teleskopu została zakończona w listopadzie roku 2016. Od tamtego czasu urządzenie przechodziło całą serię testów. Niedawno zakończono ostatni z nich – pomiar krzywizny lustra. Miał on pokazać, czy w czasie poprzednich testów symulujących warunki panujące podczas startu rakiety i podróży przez przestrzeń kosmiczną, nie doszło do odkształcenia lustra. Podczas tych ostatnich badań inżynierowie dokładnie mierzyli wzorce interferencji światła laserowego odbijanego od lustra i porównywali je z identycznymi pomiarami wykonanymi bezpośrednio po złożeniu teleskopu, a przed rozpoczęciem testów. Badania wykazały, że testy nie wpłynęły negatywnie na lustro. Po przybyciu do Teksasu teleskop zostanie poddany ostatecznemu testowi. Cała jego optyka zostanie umieszczona w olbrzymiej Komorze A, gdzie zostanie schłodzona do temperatury -262 stopni Celsjusza. Po tym teście urządzenie trafi do Kalifornii do Northrop Grumman Aerospace Systems. Tam JWST przejdzie ostateczne testy i zostanie złożony. Z Kalifornii zostanie przewieziony do Gujany Francuskiej i w przyszłym roku zostanie wystrzelony w przestrzeń kosmiczną. Teleskop Kosmiczny Jamesa Webba zostanie umieszczony w Punkcie Lagrange'a 2, czyli – z punktu widzenia Słońca – bezpośrednio za Ziemią. Ma on być następcą Teleskopu Hubble'a. Jego lustro ma 7-krotnie większa powierzchnię niż lustro Hubble'a, JWST jest też w stanie zarejestrować światło podczerwone. Pozwoli mu to zajrzeć znacznie głębiej w przestrzeń kosmiczną. « powrót do artykułu
  21. Sztuczna inteligencja lepiej przewiduje wyroki Sądu Najwyższego USA niż naukowcy zajmujący się prawem. Po raz kolejny okazuje się, że zaawansowane algorytmy potrafią z olbrzymim prawdopodobieństwem przewidzieć decyzje sądów. Tym razem naukowcy odwołali się do Supreme Court Database, która zawiera informacje o sprawach sięgających roku 1791. Na podstawie tej bazy stworzyli algorytm, którego zadaniem było przewidywanie wyników głosowania każdego z sędziów Sądu Najwyższego. Na potrzeby algorytmu każdemu z głosów przypisano 16 cech, takich jak nazwisko sędziego, okres zasiadania w Sądzie Najwyższym, sprawę, której dotyczyło głosowanie czy sąd, z którego sprawa pochodziła. Dodano też inne elementy, jak np. informację o tym, czy w danej sprawie SN wysłuchiwał obu stron. Dla każdego roku z lat 1816-2015 stworzono model statystyczny oparty na random forest. Model ten badał sprawy z poprzednich lat i szukał powiązań dotyczących cech danej sprawy, głosowań sędziów i innych elementów, na podstawie których próbował przewidzieć, jakie będą wyniki głosowania w sprawach z danego roku. W końcu, gdy już przewidział wyroki z danego roku, algorytm był informowany o prawdziwych wynikach głosowania i miał przewidzieć wyroki z roku kolejnego. Autorzy badań donoszą na łamach PLOS ONE, że dla lat 1816-2015 algorytm prawidłowo przewidział 70,2% wyroków w prowadzonych przez sąd 28 000 spraw, a w 71,9% dobrze odgadł jak głosował który z sędziów. W sumie sędziowie oddali 240 000 głosów. To wynik lepszy od stosowanych obecnie strategii przewidywania wyroków SN, które dają trafność na poziomie 63% oraz lepszy od osiągnięć specjalistów zajmujących się prawem, którzy potrafią przewidzieć wyrok w 66% przypadków. Za każdym razem gdy robiliśmy pomiar, ludzie nie wypadali w nim zbyt dobrze – mówi główny autor badań, profesor prawa Daniel Katz z Illinois Institute of Technology w Chicago. Algorytm przewidujący wyroki sądów może mieć praktyczne zastosowanie. Inwestorzy mogą np. wykorzystać go do odgadnięcia, która firma wygra przed sądem. Z kolei osoby czy przedsiębiorstwa zaangażowane w spór sądowy mogą na jego podstawie określić swoje szanse na wygranie apelacji. To o tyle ważne, że prawnicy reprezentujący firmy są bardzo drodzy, zatem przewidzenie z dużym prawdopodobieństwem efektów ich pracy może pozwolić na zaoszczędzenie ładnej sumki. Dzięki sztucznej inteligencji można też zaplanować całe drogę prawną, od sądu pierwszej instancji aż po ewentualne odwoływanie się do Sądu Najwyższego, ponadto wyspecjalizowany algorytm może pomóc w określeniu rodzaju sprawy tak, byśmy mieli największą szansę na jej wygranie. Michael Bommarito, jeden z autorów powyższych badań, przypomina sprawę National Federation of Independent Business vs. Sebelius, w której rozstrzygano kwestie związane z wprowadzonym przez prezydenta Obamę Affordable Care Act. Jednym z interesujących aspektów tej sprawy była konieczność rozstrzygnięcia, czy dotyczy to bardziej wolności wypowiedzi, systemu podatkowego czy jakichś praw związanych z opieką zdrowotną – mówi Bommarito. Algorytm mógłby pomóc jeszcze przed wniesieniem sprawy do sądu przedstawić ją tak, byśmy mieli jak największe szanse na jej wygranie. Mógłby też doradzić, do którego sądu najlepiej ją wnieść. « powrót do artykułu
  22. Nie spełniły się czarne przewidywania przedstawicieli amerykańskiej nauki. Jej finansowanie pozostanie na dotychczasowym poziomie, a budżet niektórych agend nawet wzrośnie. W Kongresie USA zakończono negocjacje dotyczące wydatków w wysokości około biliona dolarów. Prawodawcy nie zgodzili się, przynajmniej tymczasowo, na stopniowe cięcia proponowane przez administrację prezydenta Trumpa. Najwięcej powodów do radości mają Narodowe Instytuty Zdrowia (NIH), których budżet zwiększono o 2 miliardy dolarów. W bieżącym roku będą miały one do dyspozycji 34 miliardy USD. Budżet Narodowej Fundacji Nauki nie uległ zmianie w porównaniu z rokiem ubiegłym i wynosi około 7,5 miliarda USD, a budżet NASA zwiększono o 2% do 19,7 miliarda dolarów. Agencja Ochrony Środowiska (EPA), której administracja Trumpa chciała zmniejszyć w 2018 roku budżet o 31% otrzyma 8,1 miliarda dolarów, czyli o 1% mniej niż rok wcześniej. Decyzja Kongresu napawa optymizmem, jednak naukowcy nie mogą spać spokojnie. Propozycje istotnych cięć dotyczyły budżetu na rok 2018. Jednak postawa prawodawców wskazuje, że nie chcą oni obniżać budżetów instytucji zajmujących się nauką, a teraz stało się mniej prawdopodobne, by drastycznie obniżono finansowanie z roku na rok. Obecnie uchwalony budżet dotyczy wydatków państwa do 30 września. NIH przyznano 352 miliony dolarów na reformę systemu prac nad nowymi lekami i badań biomedycznych, 400 milionów USD na badania nad chorobą Alzheimera, 120 milionów USD na projekt Precision Medicine Initiative oraz 110 milionów na Brain Research through Advancing Innovative Neurotechnologies Initiative. Administracja prezydenta Trumpa zaproponowała zlikwidowanie od 2018 roku ARPA-E (Advanced Research Projects Agency-Energy), która finansuje obarczone wysokim stopnie ryzyka badania nad nowymi technologiami wytwarzania energii. Tymczasem Kongres przyznał jej 306 milionów dolarów. Skoro tak, to możemy przypuszczać, że za parę miesięcy posłowie i senatorowie nie stwierdzą, że agencję trzeba jednak zlikwidować. Wynegocjowane porozumienie budżetowe zostanie w najbliższym czasie przegłosowane. Zaraz po tym prawodawcy zajmą się pracami nad budżetem na rok 2018. Pod koniec maja Biały Dom przedstawi szczegóły propozycji swojego budżetu. Prawdopodobnie – jak w przedstawionych w marcu założeniach budżetowych – zostaną w nich zawarte propozycje głębokich cięć w programach cywilnych i zwiększenia nakładów na projekty wojskowe. « powrót do artykułu
  23. Zespół z Rutgers University wynalazł skuteczny, a zarazem niedrogi sposób na zabijanie bakterii i odkażanie powierzchni za pomocą urządzenia produkowanego z papieru. Papier to materiał wykorzystywany od wieków, który doczekał się [...] nowych technologicznych zastosowań. Odkryliśmy, że przykładając wysokie napięcie do ułożonych w stos kartek metalizowanego papieru, byliśmy w stanie wygenerować zabijającą mikroorganizmy plazmę, która stanowi połączenie ciepła, ultrafioletu i ozonu - wyjaśnia prof. Aaron Mazzeo. W przyszłości bazujące na papierze rozwiązania będzie można zastosować np. w ubraniach, które same się wysterylizują, urządzeniach do odkażania sprzętu laboratoryjnego oraz inteligentnych bandażach. Naukowcy przeprowadzili te badania także z myślą o ochronnym wyposażeniu, które ograniczy rozprzestrzenianie chorób zakaźnych, np. gorączki krwotocznej wywoływanej przez wirus Ebola. Amerykanie pokryli papier cienką warstwą aluminium. Jak tłumaczą, heksagonalne (przypominające plaster miodu) wzory pełnią rolę elektrod. Dzięki włóknistej i porowatej naturze papier może być penetrowany przez gaz, co sprzyja tworzeniu plazmy i ułatwia chłodzenie. Zgodnie z naszą wiedzą, jako pierwsi wykorzystaliśmy papier jako postawę generowania plazmy - podkreśla Jingjin Xie. Podczas eksperymentów bazujące na papierze odkażacze zabijały ponad 99% drożdży Saccharomyces cerevisiae i ponad 99,9% pałeczek okrężnicy (Escherichia coli). Wstępne wyniki pokazują, że nasze rozwiązanie zabija przetrwalniki bakteryjne, które trudno wyeliminować za pomocą konwencjonalnych metod sterylizacji - podkreśla Qiang (Richard) Chen. Mazzeo jest tegorocznym laureatem NSF CAREER Award, dzięki czemu jego zespół będzie mógł kontynuować prace nad papierowymi czujnikami. « powrót do artykułu
  24. Wylesianie może doprowadzić do zniknięcia 40% drzew i zwierząt lądowych, ostrzegają australijscy naukowcy na łamach PNAS. Specjaliści nie wykluczają, że wiele rzadkich gatunków już wyginęło, ale jeszcze tego nie zauważyliśmy. Jeśli nie ochronimy kluczowych obszarów lasów tropikalnych, dojdzie do masowej utraty gatunków. Główny autor badań, profesor John Alroy z Macquarie University ostrzega, że powyższe przewidywania są bardzo ostrożne. Lasy tropikalne są bezcenne i okazały się znacznie bardziej wrażliwe niż przypuszczałem. Alroy i jego zespół przeprowadzili pierwsze badania, w których pod uwagę wzięli dane z setek lokalnych studiów i przełożyli ich wyniki na skalę globalną. Wynika z nich, że najbardziej narażone na wyginięcie są gatunki niewielkich nielatających zwierząt, takich jak żaby, jaszczurki i owady. Alroy dodaje, że zawarta w wynikach badań sugestia, iż masowe wymieranie mogło się już rozpocząć, wymaga dalszych badań. Bardzo możliwe, że ma ono już miejsce. Nie możemy być tego pewni, musimy to zbadać, dodał. Naukowca zdumiał też fakt, że nie znalazł w literaturze fachowej przykładów badań przeprowadzonych tak, jak on to zrobił. Badacze zawsze skupiali się na stosunkowo niewielkich obszarach i nie przekładali ich wyników na skalę planety. Warto też zauważyć, że Australijczycy brali pod uwagę wyłącznie skutek wycinki drzew dla ekosystemu. Nie badali innych niekorzystnych zjawisk, jak globalne ocieplenie, polowania, zanieczyszczenia czy pojawianie się gatunków inwazyjnych. Wszystkie te czynniki mogą tylko pogarszać sytuację. Badania Alroya są niezmiernie ważne. Warto bowiem uświadomić sobie, że w lasach tropikalnych żyje od 66 do 75 procent wszystkich gatunków roślin i zwierząt zamieszkujących Ziemię. Jednocześnie lasy takie pokrywają jedynie 10% powierzchni lądów naszej planety. « powrót do artykułu
  25. Wiele klas antybiotyków, w tym makrolidy, chinolony, tetracykliny czy sulfonamidy, powiązano z podwyższonym ryzykiem poronienia wczesnych ciąż. Erytromycyna i nitrofurantoina, stosowana do leczenia zakażeń dróg moczowych u ciężarnych, nie były powiązane z podwyższonym ryzykiem. Zakażenia są częste w czasie ciąży. Choć w ramach innych badań zastosowanie antybiotyków powiązano ze spadkiem ryzyka wcześniactwa i niskiej wagi urodzeniowej, nasze analizy pokazują, że pewne typy antybiotyków podwyższają ryzyko spontanicznego poronienia (od 60% do 2 razy) - opowiada dr Anick Bérard z Uniwersytetu Montrealskiego. Zespół Bérard analizował dane Quebec Pregnancy Cohort z lat 1998-2009; 8702 przypadki spontanicznych poronień zestawiono z 87.020-osobową grupą kontrolną. Średni wiek ciąży w momencie poronienia wynosił 14 tygodni. W grupie z poronieniami ekspozycja na antybiotyki we wczesnej ciąży występowała w 1428 przypadkach (16,4%), w porównaniu do 11.018 przypadków (12,6%) w grupie kontrolnej. Uczestniczki badania miały od 15 do 45 lat. Kobiety, które roniły, częściej były starsze, mieszkały same i miały liczne problemy zdrowotne/zakażenia (podczas analiz wzięto poprawkę na wszystkie te czynniki). Do mocnych stron badania należy zaliczyć, m.in.: dużą liczebność próby, wiarygodne dane nt. przepisanych leków czy procedur medycznych związanych ze spontanicznym poronieniem. « powrót do artykułu
×
×
  • Dodaj nową pozycję...