-
Liczba zawartości
37045 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
231
Zawartość dodana przez KopalniaWiedzy.pl
-
Analizując literaturę przedmiotu, badacze z Kampusu Medycznego University of Colorado Anschutz ustalili, że farmaceutyki zawierające kannabinoidy mogą być skuteczne przeciwko egzemie (wypryskowi kontaktowemu), łuszczycy czy atopowemu zapaleniu skóry (AZS). Najbardziej obiecującym zastosowaniem kannabinoidów [w dermatologii] jest leczenie świądu - podkreśla dr Robert Dellavalle i dodaje, że w jednym z badań stosowanie kremu z kannabinoidami 2 razy dziennie przez 3 tygodnie całkowicie wyeliminowało ciężki świąd u 8 z 21 pacjentów. Naukowcy przypuszczają, że za pomocą kremu udało się zlikwidować suchość skóry, która może prowadzić do świądu. Dellavalle zwraca uwagę na przeciwzapalne właściwości takich preparatów. Przypomina, że jego badania wykazały, że tetrahydrokannabinol (THC), główna substancja psychoaktywna zawarta w konopiach, zmniejsza u myszy stan zapalny i opuchliznę. U gryzoni z czerniakiem po ostrzykiwaniu THC zaobserwowano zaś znaczne zahamowanie wzrostu guza. Chodzi o miejscowe leki kannabinoidowe o niewielkim lub zerowym działaniu psychotropowym, których można by używać w chorobach skóry. Amerykanin dodaje jednak, że większość uwzględnionych w metaanalizie studiów to badania na modelach laboratoryjnych, w przypadku których nie przeprowadzono zakrojonych na szerszą skalę testów klinicznych. Dellavalle ma nadzieję, że sytuacja ulegnie zmianie, gdy więcej stanów zalegalizuje konopie. Doktor dodaje, że kannabinoidy mogą być użyteczną opcją terapeutyczną w przypadku osób, u których leczenie świądu i innych chorób skóry tradycyjnymi metodami nie dało rezultatów. « powrót do artykułu
-
Kluczowej populacji lamparta w RPA grozi wyginięcie
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
Eksperci ostrzegają, że jednej z kluczowych populacji lampartów w RPA grozi zagłada. Jeszcze niedawno zagęszczenie lampartów w górach Soutpansberg wynosiło niemal 11 zwierząt na 100 kilometrów kwadratowych i był to rewelacyjny wynik. Większe zagęszczenie tych kotów występuje wyłącznie w rezerwatach. W innych niechronionych pasmach górskich jest ono kilkukrotnie mniejsze. Jednak najnowsze badania wykazały, że populacja uległa załamaniu. W roku 2016 doliczono się średnio 3,65 lamparta na 100 kilometrów kwadratowych. Jeśli sytuacja nie ulegnie zmianie lamparty wyginą na tym terenie do roku 2020 – ostrzega biolog z Durham University i główny autor najnowszych badań, Samual Williams. Jeszcze w 2008 roku w regionie tym mieliśmy do czynienia z jednym z największych zagęszczeń lampartów w całej Afryce. Nie wiadomo, ile lampartów pozostało na świecie. Wiadomo jedynie, że ich liczba gwałtownie maleje. Najbardziej optymistyczne szacunki mówią, że w całej RPA pozostało 4500 tych zwierząt. To niewiele jak na kraj o powierzchni 1,2 miliona kilometrów kwadratowych. W przeszłości lampart plamisty, w skład którego wchodzi kilka podgatunków, występował na olbrzymich obszarach Afryki i Azji. Obecnie występuje na około 25% swojego historycznego terytorium, a niektóre podgatunki znajdują się na krawędzi zagłady ograniczone do 1-2 procent oryginalnego terytorium. Lampart plamisty, jako gatunek, został w ubiegłym roku uznany za narażonego na wyginięcie. Gdy w 2008 roku w zajmujących powierzchnię 6800 km2 górach Soutpansberg przeprowadzono badania lampartów okazało się, że ich zagęszczenie wynosi około 11 dorosłych osobników na 100 kilometrów kwadratowych. Kolejne badania prowadzono za pomocą kamer-pułapek w latach 2012-2016. Przez cztery lata kamery zarejestrowały 65 osobników: 16 dorosłych samców, 28 dorosłych samic i 21 młodych. Ponadto 8 dorosłych kotów wyposażono w nadajniki GPS by śledzić ich ruchy. Jedynie dwa koty przetrwały czteroletnie badania. Trzy zostały zabite przez kłusowników, jednego zabił rolnik, który chronił swoje stada, a dwa zaginęły, prawdopodobnie też poniosły śmierć. Ironią losu jest fakt, że gwałtowny spadek populacji lampartów pomógł w zebraniu pieniędzy na zatrudnienie osoby, która współpracuje z miejscową ludnością w celu ochrony lampartów. Jedną z rzeczy, jaką się zajmuje ta osoba jest przekonywanie rolników, by nie zabijali lampartów, a wykorzystali inne techniki ochrony stad, np. psy stróżujące. Główną przyczyną zanikania gatunków jest, obok kłusownictwa, coraz większe rozprzestrzenianie się ludzi. Rosnąca populacja Homo sapiens coraz bardziej wchodzi na tereny zajmowane przez inne gatunki, niszcząc i dzieląc ich habitaty. Demografowie szacują, że do połowy wieku liczba mieszkańców Afryki zwiększy się o ponad miliard. « powrót do artykułu -
Analizując modele 3D twarzy blisko 1000 brytyjskich bliźniaczek, naukowcy z Królewskiego College'u Londyńskiego odkryli, że geny silnie wpływają na wygląd czubka nosa, obszaru nad i pod ustami, kości policzkowych oraz wewnętrznych kącików oczu. Akademicy skanowali twarze kobiet za pomocą kamer 3D. Posługiwali się też specjalnym oprogramowaniem statystycznym, dzięki któremu można było generować tysiące punktów i określać wygląd (topografię) twarzy w tych okolicach. Autorzy artykułu z pisma Scientific Reports porównywali, do jakiego stopnia uzyskane wartości (pomiary) są podobne w parach bliźniąt jedno- i dwujajowych. Patrząc na to, kształt których części ciała jest najbardziej podobny u bliźniąt jednojajowych, Brytyjczycy wyliczali prawdopodobieństwo, że wygląd tego obszaru jest determinowany genetycznie. W zakresie od 0 do 1 większe wartości oznaczały, że prawdopodobieństwo kontrolowania kształtu elementu twarzy przez geny jest wyższe. Naukowcy opublikowali nawet atlas, w którym można sprawdzić, w jakim stopniu dziedziczny jest wygląd poszczególnych cech fizjonomii. Jak podkreśla prof. Giovanni Montana, jest oczywiste, że geny kształtują wygląd naszych twarzy. Często jesteśmy bardzo podobni do rodziców, a bliźniąt jednojajowych praktycznie nie da się odróżnić. Dotąd nie radziliśmy sobie jednak z precyzyjnym liczbowym przedstawieniem, które części twarzy są silnie dziedziczne. Łącząc modele 3D z algorytmem statystycznym, który mierzy lokalne zmiany kształtu, potrafiliśmy jednak stworzyć szczegółowe mapy dziedziczności twarzy. Mapy te pomogą zidentyfikować geny kształtujące ludzką fizjonomię; to ważne, bo mogą one wpływać na choroby zmieniające morfologię twarzy. Prof. Tim Spector dodaje, że badanie pokazało, że nawet bliźnięta jednojajowe różnią się nieco pod względem cech twarzy, ale ponieważ kluczowe obszary są kontrolowane genetycznie, postrzegamy je jako wyglądające identycznie. « powrót do artykułu
-
Ransomware Karmen, to przejaw nowego, niebezpiecznego tredu w świecie cyberprzestępczości. Posługujący się językiem rosyjskim użytkownik o pseudonimie DevBitox oferuje Karmen na czarnorynkowych forach i reklamuje je jako ransomware-as-a-service. Szkodliwy kod jest sprzedawany w cenie 175 dolarów i został on przygotowany tak, by z jego obsługą poradził sobie nawet amator. Kupujący otrzymuje sam kod oraz zestaw narzędzi do jego modyfikacji. W przypadku Karmena są to narzędzia pozwalające łatwo zmienić kod, uzyskać podgląd na zainfekowane komputery oraz informacje o zarobkach z przestępczej działalności. Karmen rozpowszechnia się w formie załącznika do e-maila. Można się nim też zarazić wchodząc na zainfekowaną witrynę. Po zarażeniu komputera ofiary Karmen szyfruje znalezione tam pliki i domaga się opłaty za ich odszyfrowanie. Dotychczas przestępcy sprzedali 20 kopii Karmena, a do pierwszych infekcji doszło już w grudniu na terenie Niemiec i USA. Specjaliści ostrzegają, że tani kod, taki jak Karmen, znacząco obniża barierę wejścia do cyberprzestępczego świata, co powoduje, że coraz więcej osób może zechcieć zarabiać na okradaniu innych za pomocą internetu. Na szczęście w przypadku kodu Karmen internauci nie są zdani na łaskę przestępców. Został on bowiem zbudowany na opensourceowym Hidden Tear. Na jego podstawie powstało wiele typów ransomware, ale specjaliści ds. bezpieczeństwa stworzyli darmowe narzędzia, które potrafią odszyfrować pliki zaszyfrowane za pomocą szkodliwego kodu bazującego na Hidden Tear. Powstała nawet witryna, która pomoże określić, jakim ransomware się zaraziliśmy i w jaki sposób możemy sobie z tym poradzić. « powrót do artykułu
-
Peptyd antydrobnoustrojowy ze śluzu Hydrophylax bahuvistara, żaby z południowych Indii, może zniszczyć wiele szczepów ludzkiego wirusa grypy i chroni myszy przed zakażeniem. Jak podkreślają autorzy publikacji z pisma Immunity, od opracowania ewentualnego leku dzieli nas jednak daleka droga. Wydaje się, że peptyd działa, wiążąc się z hemaglutyniną (w skrócie H), czyli glikoproteiną o właściwościach antygenowych z powierzchni wirusów grypy. Podczas eksperymentów laboratoryjnych peptyd radził sobie z wieloma ich szczepami, od historycznych po współczesne. Nowo zidentyfikowany peptyd ochrzczono uruminą. Nazwa pochodzi od urumi - długiego miecza w postaci taśmy z giętkiej stali (broni tej używa się do dziś w indyjskim stanie Kerala, a to właśnie tam występują H. bahuvistara). Różne żaby wytwarzają różne peptydy, w zależności od habitatu, w jakim żyją. Ty i ja także produkujemy własne peptydy. [...] Tak się złożyło, że odkryliśmy, że peptyd wytwarzany przez pewnego płaza jest akurat skuteczny przeciwko wirusom typu H1 - wyjaśnia Joshy Jacob z Emory University. W ramach mechanizmów wrodzonej odporności praktycznie wszystkie zwierzęta wytwarzają co najmniej parę peptydów antydrobnoustrojowych. Naukowcy dopiero zaczynają je katalogować. Żaby ściągnęły na siebie najwięcej uwagi, bo dość łatwo wyizolować peptydy z ich śluzu. Niestety, metody te nie zawsze są humanitarne, bo oprócz pocierania proszkiem stosuje się np. łagodne porażanie prądem. Naukowcy z Centrum Biotechnologicznego im. Rajiva Gandhiego w Kerali izolowali peptydy z występujących w okolicy żab i prowadzili skryning ich właściwości antybakteryjnych. Jacob zastanawiał się jednak nad peptydami, które neutralizowałyby zakażające ludzi wirusy. Doprowadziło to do badania skuteczności 32 żabich peptydów antydrobnoustrojowych przeciwko szczepom wirusa grypy. Okazało się, że 4 są w stanie je zwalczać. Prawie spadłem z krzesła. Na początku myślałem, że by dokonać odkrycia farmaceutycznego i trafić na 1 czy 2 substancje, trzeba się "przekopać" przez tysiące, a nawet miliony kandydatów. Tymczasem my zajęliśmy się 32 peptydami i mieliśmy aż 4 trafienia. Początkowy entuzjazm Amerykanina szybko osłabł, gdy w czasie testów bezpieczeństwa okazało się, że 3 z 4 związków są toksyczne dla erytrocytów. Pozostała urumina była jednak bezpieczna dla ludzkich komórek i zabójcza dla wirusów grypy. Wiedząc już, że chodzi o hemaglutyninę, Jacob i inni pracują nad szczegółami działania uruminy. Wirus potrzebuje hemaglutyniny, by dostać się do wnętrza naszych komórek. Urumina wiąże się zaś z hemaglutyniną i destabilizuje, a następnie zabija wirusy. « powrót do artykułu
-
Jak zapewne niektórzy pamiętają, po odejściu z Microsoftu Steven Ballmer kupił drużynę koszykówki Los Angeles Clippers. Myliłby się jednak ten, kto sądzi, że tak barwna postać, którą pamiętamy z może w wieku 60 lat spokojnie usiedzieć na emeryturze. Ballmerowi nie wystarcza najwyraźniej zarządzanie drużyną. Były menedżer Microsoftu postanowił patrzeć rządzącym na ręce.Wszystko zaczęło się jeszcze przed zakupem Los Angeles Clippers. Ballmer, gdy opuszczał Microsoft, miał 57 lat, był jednym z najbogatszych ludzi na świecie i... nie miał nic do roboty. Jego żona, Connie, namawiała go, by pomógł jej w działalności dobroczynnej, którą prowadziła. No przestań. Czy rząd nie dba o biednych, chorych i starych, odpowiedział żonie. Przypomniał też, że w czasie pracy zawodowej zapłacił w podatkach kolosalne kwoty, które powinny być przeznaczone na pomoc społeczną. Ballmer nie zaangażował się w działalność dobroczynną, ale rozmowa z żona, która stwierdziła, że rząd wcale nie zajmuje się wszystkim, dała mu do myślenia. A efektem przemyśleń i działań Ballmera jest prawdopodobnie najbardziej ambitny w USA niezależny ponadpartyjny projekt publicznego nadzoru nad wydatkami rządzących. Ballmer zebrał grupę ekonomistów, naukowców z różnych dziedzin i innych ekspertów i przez ostatnie trzy lata wspólnie pracowali nad projektem, w wyniku którego powstała uruchomiona właśnie witryna USAFacts. To pierwsza w pełni zintegrowana baza danych zawierająca wszystkie wpływy i wydatki amerykańskich władz, od agend federalnych, poprzez stanowe po urzędy lokalne. Baza daje obywatelom do ręki potężne narzędzie. Można w niej na przykład sprawdzić, ilu policjantów pracuje w konkretnych częściach kraju i porównać ich liczbę z odsetkiem przestępstw. Każdy chętny może dowiedzieć się, jakie wpływy osiągają hrabstwa z biletów parkingowych i jaki jest koszt systemu ściągania opłat. Sprawdzimy też np. ilu Amerykanów cierpi na depresję i ile rząd wydaje na walkę z tą chorobą. Ballmer mówi, że jego witryna ma być odpowiednikiem formularza 10-K dla rządu. 10-K to formularz, który każda spółka giełdowa musi złożyć co roku przed amerykańską Komisją Giełd (SEC). Gdy chcę dogłębnie zrozumieć, co robi jakaś firma, Amazon czy Apple, biorę ich 10-K i go czytam. To bardzo dokładne sprawozdanie i im bardziej się w nie wgłębiasz, tym lepiej wszystko rozumiesz – stwierdził Ballmer. Witryna USAFacts może pomóc w lepszym zrozumieniu tego, co się wokół dzieje. Znajdziemy tam np. informacje o przychodach i wydatkach lotnisk. Dowiemy się, ile podatku płacą korporacje. Chciałbym, żeby obywatele używali jej, by świadomie formułować poglądy. Jego witryna ma być wiarygodnym źródłem danych, na podstawie których można będzie wyrobić sobie opinię na różne tematy. Ballmer był przekonany, że tego typu baza danych już istnieje. Szukał informacji w Bingu i Google'u. Ale nie znalazł tego, co chciał. Musisz jednocześnie przeszukiwać federalne, stanowe i lokalne bazy. Jako, że jestem obywatelem, nie interesuje mnie, czy dałem pieniądze panu A, B czy C. Chcę wiedzieć, co oni z nimi zrobili – stwierdził. Ballmer wynajął więc zespół ekspertów i przyznał grant University of Pennsylvania. Celem obu działań było skupienie wszystkich rozproszonych informacji w jednym miejscu. Przez trzy lata wydał ponad 10 milionów dolarów. Jestem szczęśliwy, że udało mi się to sfinansować, stwierdził biznesmen. Prezentując swoje osiągnięcie dziennikarzom New York Timesa powiedział, że jego ulubione dane dotyczą zatrudnienia w sektorze publicznym. Ile osób zatrudnia rząd Stanów Zjednoczonych? – zapytał dziennikarzy. Niemal 24 miliony. Zgadlibyście? A potem ludzie mówią 'Ci cholerni biurokraci'". Kolejnym wielkim zaskoczeniem było dla niego odkrycie, że większość niedochodowych organizacji pożytku publicznego czerpie od 50 do 90 procent swoich wpływów z rządowych dotacji. Podczas prac nad bazą dowiedział się również, że nigdzie nie ma informacji o liczbie legalnie posiadanych przez obywateli sztuk broni. Rządzącym nie wolno bowiem zbierać takich danych. Ballmer ma nadzieję, że USAFacts to dopiero początek. Chce, by organizacje, przedsiębiorstwa i obywatele mogli tworzyć własne zestawienia i raporty w oparciu o dane zebrane w jego bazie. « powrót do artykułu
-
Utrwalanie żywności to jedno z najważniejszych zadań przemysłu spożywczego. Od pola do stołu droga jest niekiedy daleka. Z tego powodu znaczna część żywności na sklepowych półkach musi być w jakiś sposób zabezpieczona przed zepsuciem. Najczęściej poddaje się ją mrożeniu, suszeniu lub pasteryzacji. W wyniku tych procesów żywność, choć dłużej zachowuje swoją przydatność do spożycia, traci częściowo wartość odżywczą lub walory teksturalne. Dodatkowo procesy te są bardzo energochłonne, co wiąże się zarówno z wysokimi kosztami, jak i ze stosunkowo dużym obciążeniem środowiska naturalnego. Naukowcy na całym świecie pracują nad nowymi, lepszymi sposobami przetwarzania żywności. Bardzo obiecujące są badania nad wykorzystaniem pulsacyjnego pola elektrycznego (PEF – ang. pulse electric field) oraz ultradźwięków. W Katedrze Inżynierii Żywności i Organizacji Produkcji SGGW zespół naukowców pracujący pod opieką prof. dr hab. Doroty Witrowej-Rajchert bada możliwość zastosowania PEF do ulepszenia procesów przetwórstwa owoców i warzyw. Bardzo obiecujące są wyniki dotyczące wpływu PEF na właściwości bioaktywne żywności oraz proces suszenia owoców i warzyw. Uzyskano je w ramach projektu finansowanego ze środków NCBiR (program LIDER 4; LIDER/017/497/L-4/12/NCBR/2013), którym kierował dr inż. Artur Wiktor. Pulsacyjne pole elektryczne, czyli co? Wykorzystanie pulsacyjnego pola elektrycznego polega na oddziaływaniu na komórkę za pomocą bardzo krótkich impulsów elektrycznych o wysokiej amplitudzie napięcia. Jeśli pojedyncza komórka poddana zostanie oddziaływaniu tych impulsów, wówczas w jej błonie komórkowej robią się otwory. Zjawisko to najczęściej nazywane jest elektroporacją i może mieć charakter odwracalny lub nieodwracalny. W zależności od konkretnych parametrów zastosowanego pola elektrycznego osiągamy różne cele: nietermiczne utrwalenie żywności lub pozyskanie z komórki konkretnych substancji odżywczych, takich jak np. polifenoli, karotenoidów czy chlorofilu. Żywność delikatnie utrwalona Wysokie temperatury, jakich zazwyczaj używa się w procesach konserwowania żywności, odpowiedzialne są za utratę witamin i składników bioaktywnych. Dlatego metoda PEF – w której nie korzysta się z podgrzewania – to bardzo dobry sposób utrwalania soków czy smoothies. Pole elektryczne (o odpowiednio dobranych parametrach) jest w stanie zabić komórki np. drożdży lub bakterii. Z tego powodu poddany temu procesowi produkt spożywczy będzie trwalszy i bardziej wartościowy. Innym sposobem wykorzystania PEF jest wstępna obróbka owoców i warzyw przed suszeniem, mrożeniem i tłoczeniem. Dzięki temu można usprawnić niektóre procesy technologiczne, np. o ponad 20% skrócić czas suszenia. Po prostu łatwiej jest usunąć wodę z komórki, której błona komórkowa ma otwory. Można też obniżyć temperaturę powietrza suszącego, co wpływa korzystnie na energochłonność procesu oraz jakość produktu. PEF pozwala także skrócić czas zamrażania. W bardziej ekonomiczny sposób otrzymujemy więc produkt lepszej jakości – mówi dr Artur Wiktor. Zastosowanie PEF podnosi wydajność tłoczenia soków nawet o kilkanaście procent. Odpowiednio dobrane parametry mogą też spowodować zmianę różnych właściwości produktu, takich jak smak, klarowność czy zawartość polifenoli. W ten sposób można sprawić, że sok owocowy lub smoothie będą wydawały się słodsze, mimo że zawartość cukru pozostanie niezmieniona albo nawet obniży się. Po prostu cukier zawarty w komórkach owoców zostanie wyekstrahowany na zewnątrz i dzięki temu będzie lepiej wyczuwalny. Pulsacyjne pole elektryczne da się wykorzystać jeszcze na wiele innych sposobów. Na przykład jeśli przed mrożeniem potraktujemy nim ziemniaki pokrojone na frytki, wówczas nie będą się one piórkowały, wchłoną mniej tłuszczu podczas smażenia – więc będą "chudsze", zdrowsze i tańsze w produkcji. Także poddana działaniu PEF (w obecności różnych substancji), a następnie zamrożona rukola po rozmrożeniu zachowa swoje właściwości strukturalne i będzie się ładnie prezentowała np. na pizzy. Kopalnia cennych składników Pulsacyjne pole elektryczne może być przydatne do pozyskiwania składników odżywczych z owoców i warzyw. Przez utworzone w procesie elektroporacji otwory w błonach komórkowych można pobierać np. składniki bioaktywne i wykorzystać je do produkcji suplementów diety. Tradycyjną metodą otrzymywania takich substancji jest stosowanie obciążających środowisko naturalne rozpuszczalników. Za pomocą pomocy PEF można do cna zużyć również odpady poprodukcyjne – na przykład wytłoki z jabłek – i pozyskać z nich składniki odżywcze. Ich użycie lub sprzedaż mogłyby stanowić dodatkowe źródło dochodów dla przedsiębiorstw zajmujących się przykładowo tłoczeniem soków. PEF może zostać także zastosowane do wydobywania barwników z produktów roślinnych. Jak widać na poniższym zdjęciu, wydajność przy zastosowaniu tej metody wstępnego przetwarzania jest znacznie wyższa od tradycyjnej. Rynek i bezpieczeństwo Zastosowanie pulsacyjnego pola elektrycznego w przetwarzaniu żywności na pewno ma wiele plusów. Jednak mimo że metoda ta jest znana od połowy XX wieku – wtedy rozpoczęły się badania naukowe na szerszą skalę nie jest ona powszechnie stosowana. Jak twierdzi dr Artur Wiktor, powodów jest kilka: Na pewno istotną barierą w implementacji PEF w przemyśle spożywczym na skalę przemysłową jest koszt zakupu tej technologii. Maszyny są stosunkowo drogie, co wpływa na opłacalność produkcji. Produkty z wykorzystaniem PEF są już obecne na światowym rynku. Jednak myślę, że upowszechnienie tej metody w polskim przemyśle spożywczym zajmie od kilku do kilkunastu lat. Kolejnym czynnikiem jest obawa przed zastosowaniem prądu w przetwarzaniu żywności. Nasz zespół prowadzi dość szerokie badania dotyczące opinii konsumentów na ten temat. Chociaż pulsacyjne pole elektryczne od lat stosowane jest w medycynie, np. do leczenia nowotworów, wykorzystanie go w przemyśle spożywczym może budzić nieuzasadniony opór. Czy na pewno nieuzasadniony? Jak dotąd nic nie wskazuje na to, by ta technologia była szkodliwa. W jej wyniku nie powstają żadne nowe substancje, a nawet jeśli – to w bardzo ograniczonych ilościach. Według aktualnego stanu wiedzy, jest to metoda bezpieczna, bardzo obiecująca i zgodna z ideą zrównoważonego rozwoju – odpowiada dr Wiktor. « powrót do artykułu
-
Tradycyjny psychodelik pomoże w walce z depresją?
KopalniaWiedzy.pl dodał temat w dziale Psychologia
Pierwsze randomizowane testy halucynogenu ayahuasca wykazały, że może on pomagać ludziom z ciężką niepoddającą się leczeniu depresją. Ayahuasca jest od setek lat wykorzystywana przez rdzennych mieszkańców Ameryki Południowej, a jako że jest legalna w Brazylii i Peru coraz częściej próbują jej też turyści. Brazylijscy naukowcy są pierwszymi, którzy przeprowadzili badania nad wpływem tego psychodeliku u osób z oporną na leczenie depresją. Wzięło w nich udział 29 osób, z czego 14 otrzymało ayahuaskę, a 15 podano placebo. Tydzień później u osób, które zażyły psychodelik, widoczna była znacząca poprawa. Ich poziom depresji zmienił się z ciężkiego na umiarkowany. Głównym dowodem jest fakt, że ayahuasca wpłynęła na ludzi lepiej niż placebo – mówi główny autor badań Dráulio de Araújo z Instytutu Mózgu na Federalnym Uniwersytecie Rio Grande do Norte w Natal. Ayahuasca jest przygotowywana z dwóch roślin. Jedna z nich to Psychotria viridis zawierająca psychodeliczną dimetylotryptaminę (DMT). Druga to Banisteropsis caapi, która zawiera substancje chroniące DMT przed rozpadem w jelitach, dzięki czemu DMT może dotrzeć do mózgu. Do testów wybrano osoby, które nigdy nie próbowały ayahuaski, a przygotowane placebo miało identyczny kolor i równie okropny smak co psychodeliczny napój. Na dzień przed podaniem obu środków (ayahuaski i placebo) uczestnicy wypełnili standardowy kwestionariusz, na podstawie którego określono, na jak poważną depresję cierpią. W dniu podania środków badani spędzili 8 godzin w spokojnym, kontrolowanym środowisku. Dzień, dwa dni i siedem dni po podaniu placebo lub narkotyku badani ponownie wypełniali kwestionariusze oceny depresji. Okazało się, że dzień i dwa dni po podaniu substancji obie grupy donosiły o poprawie stanu zdrowia, a osoby z grupy placebo często uzyskiwały w kwestionariuszach tyle samo punktów, co osoby, którym podano środek psychodeliczny. Jak zauważa doktor de Araujo, przy testowaniu tradycyjnych antydepresantów zwykle do 40% osób z grupy placebo informuje o poprawi. Wszystko zmieniło się tydzień po podaniu obu środków. W grupie, która przyjęła ayahuaskę aż 64% osób odczuło co najmniej 50% procentowe zmniejszenie depresji, podczas gdy w grupie placebo równie duża poprawa nastąpiła u 27% osób. Badania te sugerują, że ayahuaska może mieć szybki pozytywny wpływ, przynajmniej krótkoterminowy. Potrzebujemy długoterminowych badań, by stwierdzić, czy taki efekt się utrzymuje – -mówi David Mischoulon z Massachusetts General Hospital w Bostonie. Używane od starożytności rośliny mogą mieć pozytywny wpływ i przydać się we współczesnej medycynie, szczególnie w przypadku pacjentów, którzy nie reagują na konwencjonalne leczenie – dodaje Charles Grob z Uniwersytetu Kalifornijskiego w Los Angeles. Jeśli uzyskane przez Brazylijczyków wyniki znajdą potwierdzenie w innych badaniach, być może powstaną nowe leki pomagające chorym na depresję. Ocenia się, że na całym świecie cierpi na nią około 350 milionów osób, z czego od 100 do 170 milionów nie odczuwa poprawy po zażyciu konwencjonalnych leków. Ayahuasca to nie jedyny psychodelik testowany na pacjentach z depresją. Naukowcy zauważyli też pozytywne efekty stosowania ketaminy i psylocybiny. Ta druga nie była jeszcze testowana w zestawieniu z placebo. « powrót do artykułu -
Sztuczna inteligencja lepiej diagnozuje niż lekarze
KopalniaWiedzy.pl dodał temat w dziale Technologia
Nowoczesne technologie oddają w ręce lekarzy coraz doskonalsze narzędzia diagnostyczne. Ale, jak mówią sami lekarze, żadne z nich nie jest w stanie zastąpić człowieka, żadne nie postawi diagnozy lepiej niż lekarz. Czy aby na pewno? Naukowcy wykazali właśnie, że samouczące się algorytmy sztucznej inteligencji lepiej niż lekarze potrafią przewidzieć nadchodzący atak serca. Szerokie zastosowanie takich algorytmów może uratować tysiące, a może i miliony ludzi rocznie. Każdego roku miliony osób umierają na choroby układu krążenia. Lekarze, których zadaniem jest wcześniejsze wykrycie tych chorób, korzystają z zaleceń opisujących czynniki ryzyka. Na przykład w USA używa się dokumentu przygotowanego przez American College of Cardiology/American Heart Association (ACC/AHA), który wymienia osiem czynników ryzyka, w tym wiek, poziom cholesterolu czy ciśnienie krwi. Na ich podstawie lekarze muszą określić ryzyko wystąpienia choroby. Jest to jednak podejście mocno uproszczone. Czynnikami ryzyka są też np. przyjmowane przez pacjenta leki, choroby współwystępujące czy styl życia. W systemach biologicznych mamy do czynienia z olbrzymią liczbą interakcji. Część z nich jest sprzeczna z intuicją. Na przykład w niektórych przypadkach duża ilość tłuszczu może chronić przed chorobą serca. Komputery pozwalają nam je zbadać – mówi epidemiolog Stephen Weng z brytyjskiego University of Nottingham. Weng i jego koledzy postanowili porównać skuteczność zaleceń ACC/AHA ze skutecznością czterech samouczących się algorytmów: random forest, regresji logistycznej, gradientowej metody agregacyjnej i sieciami neuronowymi. Wszystkie te metody samodzielnie przeanalizowały olbrzymią liczbę danych i samodzielnie, bez pomocy człowieka, miały wyciągać z nich wnioski. Komputery miały do dyspozycji bazę danych 378 256 brytyjskich pacjentów. Miały wśród nich wyłowić te osoby, które były narażone na choroby układu krążenia. Najpierw algorytmy miały samodzielnie się uczyć. W tym celu wykorzystały dane 295 267 pacjentów i na tej podstawie wyszukiwały wzorce oraz tworzyły własne „zalecenia”. Później testowały te wzorce i zalecenia na pozostałej części pacjentów. Zadanie maszyn było następujące: mając do dyspozycji dane z roku 2005 miały określić, u których z pacjentów w ciągu kolejnych 10 lat pojawiły się choroby serca. Odpowiedzi maszyn i diagnozy lekarzy z roku 2005 porównano z wynikami tychże pacjentów z roku 2015. Lekarze, którzy przed laty diagnozowali pacjentów, korzystali ze wspomnianych już 8-punktowych zaleceń ACC/AHA. Maszyny samodzielnie budowały sobie zalecenia, składające się z 22 czynników ryzyka, biorąc pod uwagę m.in. pochodzenie etniczne, występowanie reumatyzmu czy chorób nerek. Porównanie wyników wykazało, że wszystkie cztery algorytmy poradziły sobie lepiej niż lekarze korzystający z ACC/AHA. Za pomocą metody statystycznej AUC, w której uzyskanie 1.0 punktu oznacza 100-procentową skuteczność, stwierdzono, że skuteczność ACC/AHA wynosi 0,728. Skuteczność algorytmów wynosiła 0,745-0,764. Najlepszy za algorytmów, sieci neuronowe, wykrył o 7,6% przypadków więcej niż lekarze i wszczął o 1,6% mniej fałszywych alarmów. W testowej próbce 83 000 pacjentów oznacza to szansę na uratowanie życia dodatkowym 355 osobom. Co interesujące, maszynowe algorytmy uznawały, że np. choroby umysłowe czy doustne przyjmowanie kortykosteroidów są jednymi z najsilniejszych czynników ryzyka chorób układu krążenia. Jednak nie są one w ogóle wymieniane w ACC/AHA. Z drugiej strony żaden z algorytmów nie uznał cukrzycy za czynnik ryzyka, a ACC/AHA uznaje tę chorobę za jeden z najważniejszych czynników. Pozostaje tylko pytanie, czy lekarze będą chcieli korzystać z pomocy maszyn. Wielu z nich jest bardzo dumnych ze swojej wiedzy oraz doświadczenia i trudno im będzie przyznać się, że maszyna może lepiej zdiagnozować pacjenta. Wielu jednak jest bardzo otwartych i chętni skorzystają z pomocy najnowszych technologii w celu postawienia lepszej diagnozy. « powrót do artykułu -
Kluczową rolę w regulacji wydatkowania energii i termogenezie odgrywa sympatyczny (współczulny) układ nerwowy, nie makrofagi. Naukowcy z Mount Sinai zdobyli ważne informacje nt. regulacji produkcji ciepła, czyli termogenezy. Specjaliści interesują się tym zjawiskiem, chcąc je wykorzystać w leczeniu cukrzycy i otyłości. Choć wcześniej akademicy dywagowali, że podstawową rolę w termogenezie odgrywają białe krwinki, makrofagi, nowe badanie sugeruje, że głównym graczem jest coś innego, a mianowicie sympatyczny układ nerwowy. Zespół prof. Christopha Buettnera skupił się na katecholaminach (in. aminach katecholowych), czyli hormonach wydzielanych przez pozazwojowe włókna układu sympatycznego, by aktywować brunatną tkankę tłuszczową. Brunatna tkanka tłuszczowa odgrywa zaś kluczową rolę w produkcji ciepła na drodze termogenezy bezdrżeniowej. Co ważne, katecholaminy mogą także przekształcać biały tłuszcz w tkankę bardziej przypominającą tłuszcz brunatny. Amerykanie sprawdzali więc, czy tak jak to proponowano w ostatnich latach, makrofagi mogą stanowić alternatywne źródło katecholamin. Termogeneza to proces metaboliczny, który cieszy się sporym zainteresowaniem ze strony naukowców, którzy chcieliby ją wykorzystać jako cel dla leków spalających energię, a więc zmniejszających otyłość i poprawiających stan diabetyków. Okazuje się, że makrofagi nie są tak istotne, ponieważ nie są w stanie produkować katecholamin. Jest jednak jasne, że mózg może to zrobić za pośrednictwem układu sympatycznego. By zrozumieć metabolizm, trzeba się więc zająć badaniem mózgu i układu sympatycznego. Zdolność do generowania ciepła jest kluczowa dla przeżycia człowieka i innych zwierząt stałocieplnych (zapobiega to śmierci z powodu hipotermii). Ta presja ewolucyjna ukształtowała biologię ludzi i pozostałych stałocieplnych i może po części wyjaśnić, czemu w środowisku, w jakim żyjemy, jesteśmy podatni na rozwój cukrzycy. Jak podkreśla Buettner, choć by wyleczyć cukrzycę oraz insulinooporność, intensywnie zajmowano się układem odpornościowym, dotąd nie uzyskano leków przeciwzapalnych, które dobrze by działały u ludzi z zespołem metabolicznym. Być może kluczem do zwalczenia skutków cukrzycy i otyłości jest [zatem] odzyskanie kontroli nad termogenezą i metabolizmem przez mózg i autonomiczny układ nerwowy. « powrót do artykułu
-
Doktorantki z Uniwersytetu Kalifornijskiego w Los Angeles zbadały kości smilodonów (Smilodon fatalis) i wilków strasznych (Canis dirus). Na barkach i kręgosłupie kotowatych znalazły urazy, do których prawdopodobnie doszło podczas ataków na duże roślinożerne ofiary, np. bizony i konie. U psowatych występowały raczej urazy głowy, szyi i nadgarstków. Różnica między tymi gatunkami w zakresie urazów szyi jest ogromna. Wilki straszne miały wiele urazów skupionych w tej samej okolicy; mogły one powstać w wyniku bycia ciągniętym przez ofiarę (coś takiego widuje się u dzisiejszych wilków). Dla odmiany u smilodonów urazów szyi czy głowy nie było właściwie wcale [...] - opowiada doktorantka Caitlin Brown. Przez pół roku Brown i inna doktorantka Mairin Balisi przeanalizowały ponad 35 tys. kości S. fatalis i C. dirus z Rancho La Brea. Ślady urazów występowały na 4,3% kości kotowatych i 2,8% kości wilków. Panie wzięły pod uwagę wyłącznie urazy, do których mogło dojść w czasie polowania, w tym wyleczone złamania czy chorobę zwyrodnieniową stawów. Jak wyjaśnia Brown, wilki straszne zabijały ofiary za pomocą szczęk. Natomiast S. fatalis, które nie mają współczesnych potomków, polowały z zasadzki. Były cięższe od C. dirus i wykorzystywały masywne mięśnie karku i przednich kończyn, by powalić i przyszpilić ofiary do ziemi. W konsekwencji można się spodziewać, że u smilodonów urazy powinny się skupiać na barkach, przedniej części klatki piersiowej i kręgosłupie, zaś u wilków powinny być równo rozłożone na wszystkich 4 kończynach - opowiada prof. Blaire Van Valkenburgh. Dodatkowo urazy głowy powinny być o wiele częstsze u C. dirus, ponieważ groziło im kopnięcie przy próbach podgryzania ofiary w czasie pościgu. Analiza Caitlin i Mairin to potwierdza. Odkrycie, że u kotowatych częściej dochodziło do urazów, sugeruje, że bardziej ryzykowały. Wydaje się, że działo się tak, bo w pojedynkę zabijały stosunkowo duże ofiary; zamiast wyczerpywać przyszły kąsek zbiorowym pościgiem, zasadzały się w niedużej odległości i powalały roślinożerców masywnymi przednimi łapami. Na końcu zabijały za pomocą precyzyjnych ciosów długich kłów. Wilki straszne polowały w stadach, które w zasadzie były zestawem biegających szczęk. Wszystko musiały robić pyskiem, dlatego spodziewaliśmy się urazów związanych z kopnięciami w głowę i być może urazów kończyn, związanych z kopnięciami bądź potknięciami w czasie polowania - podsumowuje Van Valkenburgh. « powrót do artykułu
-
Naukowcy z Uniwersytetów Princeton i Stanforda stworzyli nowatorskie oprogramowanie blokujące reklamy, które opiera się na zupełnie innej filozofii, niż tradycyjne adblockery. Podczas testów ich program zablokował reklamy na 50 z 50 testowanych witryn oraz blokował reklamy na Facebooku, czego nie potrafią inne adblockery. Autorami oprogramowania się Arvind Narayanan, Dillon Reisman, Jonathan Mayer i Grant Storey. Ich program opiera się na dwóch fundamentalnych zasadach. Po pierwsze wyścig pomiędzy reklamodawcami a twórcami adblockerów postrzega jak wyścig pomiędzy twórcami szkodliwego oprogramowania, a twórcami programów antywirusowych. Wykorzystują więc techniki używane w rootkitach, dzięki czemu mogą blokować reklamy, same nie zostając wykryte. Po drugie, naukowcy zauważyli, że istniejące regulacje dotyczące reklam dają internautom przewagę i – co ważne – ominięcie tych regulacji, a jednocześnie działanie zgodne z prawem nie jest łatwe. Amerykańska Federalna Komisja Handlu wymaga, by reklamy były odpowiednio oznaczone tak, by człowiek mógł je odróżnić od innych treści. Uczeni ze Stanforda i Princeton wykorzystali więc w swoim oprogramowaniu techniki rozpoznawania obrazów, dzięki którym program rozpoznaje reklamy tak, jak człowiek. Nazwali ten sposób „percepcyjnym blokowaniem reklam”. Jako, że reklamodawcy muszą wyraźnie oznaczać reklamy, daje to olbrzymią przewagę twórcom adblockerów. W przeciwieństwie do zachowania szkodliwego kodu, zachowanie wydawców reklam jest i będzie regulowane przepisami prawa. Odpowiednie przepisy oraz istnienie przeglądarek dopuszczających stosowanie oprogramowania blokującego reklamy to dwa kluczowe czynniki, które dają użytkownikowi przewagę – czytamy w artykule opisującym nowatorski adblocker. Kwestia blokowania reklam jest też, oczywiście, kwestią etyczną. Osoba, która je blokuje nie płaci w żaden sposób za treści, czyli za pracę osób, z której korzysta. Pozbawia więc twórców treści zarobku. Z drugiej jednak strony przeładowane reklamami strony znacznie spowalniają pracę przeglądarki – ostatnie badania mówią, że nawet o 44% – a na wielu witrynach umieszczone są uciążliwe reklamy i oprogramowanie szpiegujące. Twórcy nowego oprogramowania nie zajmowali się etyczną stroną blokowania reklam. Stwierdzili jedynie, że musi dojść do fundamentalnej zmiany relacji pomiędzy reklamodawcami, wydawcami i czytelnikami. Głównym problemem dzisiejszej reklamy jest niewspółmierność korzyści. Nie tylko pomiędzy użytkownikami a reklamodawcami, ale również pomiędzy reklamodawcami a wydawcami treści. Wydawcom nie podoba się ciągłe śledzenie użytkowników oraz problemy bezpieczeństwa związane z reklamami, ale nie mają oni kontroli nad technologiami używanymi przez reklamodawców. Jeśli chcemy wypracować długoterminowe rozwiązanie, musimy to zmienić – stwierdzili naukowcy. Prototypowy adblocker udostępniono dla przeglądarki Chrome. Nie jest on jednak w pełni funkcjonalny, gdyż jedynie wykrywa reklamy, ale ich nie blokuje. Chcieliśmy uniknąć opowiadania się po którejkolwiek ze stron i brania udziału w dyskusji o etycznych aspektach blokowania reklam. Dlatego też zdecydowaliśmy, że nasze narzędzie nie będzie w pełni funkcjonalne. Zostało skonfigurowane tak, by wykrywać reklamy, a nie je blokować – mówi profesor Narayanan. Mimo to, że nowy adblocker nie jest w pełni funkcjonalny, jego powstanie może zainspirować programistów do stworzenia podobnego oprogramowania. Ma ono dużą przewagę nad tradycyjnymi adblockerami. Te ostatnie działają bowiem dzięki wykrywaniu kodu używanego przez reklamy, a kod można łatwo zmienić. Ponadto tradycyjne adblockery są łatwo wykrywane przez odpowiednie oprogramowanie, które blokuje wyświetlanie zawartości witryny, jeśli wykryje zainstalowanego adblockera. W końcu tradycyjne adblockery nie są w stanie wykryć natywnych reklam, które wyglądają jak zwykła zawartość witryny. Dlatego też nie wykrywają reklam i treści sponsorowanych na Facebooku. „Percepcyjne blokowanie reklam” radzi sobie z tymi wszystkimi problemami dzięki temu, że podobnie jak człowiek, potrafi odróżnić reklamę od innych treści. Tak długo, jak prawodawcy będą narzucali jednoznaczne standardy dotyczące odróżniania reklam od innych treści, percepcyjne blokowanie reklam będzie działało w 100%. Jako, że nowe przepisy prawne muszą przejść długi proces legislacyjny, wygląd reklam będzie zmieniał się rzadziej, niż kod w samych reklamach – stwierdzili twórcy nowej techniki. Naukowcy z Princeton i Stanforda pokonali oprogramowanie wykrywające adblockery dzięki temu, że wykorzystali rootkitowe techniki ukrywania jego obecności. Działają one bez zarzutu, gdyż kod rozszerzenia przeglądarki ma przy przetwarzaniu pierwszeństwo przed kodem reklamy. Uczeni zaproponowali jeszcze jedną technikę ukrywania obecności adblockera, które jednak nie użyli. Ich pomysł polega na tworzeniu dwóch kopii przeglądanej witryny. Jednej, którą użytkownik widzi i na której działa adblocker oraz drugiej, na której działa kod wydawcy reklamy i której użytkownik nie widzi. Do działania tej techniki wystarczy upewnić się, że informacje przepływają pomiędzy kopiami tylko w jednym kierunku. « powrót do artykułu
-
Naukowcy z Uniwersytetu w Bath jako pierwsi sprawdzali, jak jedzenie lub post przed treningiem wpływają na ekspresję genów w tkance tłuszczowej w reakcji na ćwiczenia. Brytyjczycy badali grupę mężczyzn z nadwagą. Mieli oni maszerować przez godzinę na poziomie 60% pułapu tlenowego (VO2max). Raz odbywało się to na czczo, a innym razem 2 godziny po spożyciu bogatego w węglowodany śniadania. Po jedzeniu/poście i po ćwiczeniach naukowcy pobierali próbki krwi. Bezpośrednio po marszu i godzinę po ćwiczeniach pobierano także próbki tkanki tłuszczowej. Autorzy publikacji z American Journal of Physiology - Endocrinology And Metabolism zauważyli, że ekspresja genów tkanki tłuszczowej w obu próbach znacznie się różniła. Ekspresja PDK4 i HSL wzrastała, gdy mężczyźni ćwiczyli o pustym żołądku i spadała, gdy jedli przed treningiem. Wzrost aktywności PDK4 wskazuje, że do zasilania metabolizmu zamiast węglowodanów z ostatniego posiłku wykorzystany został zmagazynowany tłuszcz. Ekspresja HSL przeważnie wzrasta, gdy energia zmagazynowana w tkance tłuszczowej jest używania do wspierania zwiększonej aktywności, np. podczas ćwiczeń. Uzyskane wyniki stanowią poparcie dla tezy, że tkanka tłuszczowa często staje przed sprzecznymi wyzwaniami - wyjaśnia Dylan Thompson. Po jedzeniu jest zajęta reakcją na posiłek, więc ćwiczenia w tym momencie nie stymulują tych samych korzystnych zmian. Oznacza to, że trening na czczo może wywoływać korzystniejsze zmiany w tkance tłuszczowej, a to z kolei sprzyja zdrowiu w dłuższej perspektywie czasowej. « powrót do artykułu
-
Intel ogłosił, że nie będzie już więcej organizował konferencji Intel Developer Forum (IDF). Odwołano tegoroczny IDF, który miał odbyć się w San Francisco, oraz wszystkie przyszłe wydarzenia. Koncern uznał, że konferencja nie pasuje do nowego portfolio konferencji i imprez, jakie ma zamiar organizować. W oświadczeniu Intela czytamy, że firma zmieniła kalendarz imprez i zdecydowała się na rezygnację z IDF. Dziękujemy za niemal 20 lat wspaniałych Intel Developer Forum. Intel udostępnia wiele ze swoich zasobów na witrynie intel.com, w tym zasoby z Resource and Desing Center zawierające dokumentację, oprogramowanie i narzędzia dla projektantów, inżynierów i developerów. Nasi klienci, partnerzy i developerzy mogą też, jak dotychczas, kontaktować się z naszymi przedstawicielami. Dziennikarze dowiedzieli się, że rezygnacja z IDF to część strategii, w ramach której Intel zmienia się z firmy skupionej wokół pecetów na firmę zajmującą się danymi. Koncern stworzy nowe drogi komunikowania się z prasą i developerami. Będzie organizował więcej konferencji poświęconych pojedynczemu tematowi, jak obecne AI Day czy Manufacturing Day. Nie będzie za to takich wydarzeń jak IDF – wielkich spotkań na których porusza się wiele różnych kwestii. Zamiast organizować jedną konferencję o wszystkim, Intel będzie przekazywał to, co ma do powiedzenia, podczas wielu różnych wydarzeń, w nadziei, że pozwoli to lepiej skupić się na konkretnym temacie. « powrót do artykułu
-
Wesołych i spokojnych Świąt, odpoczynku, smacznych jajek oraz udanych pisanek życzą Ania, Jacek i Mariusz « powrót do artykułu
-
Na Uniwersyteckim College'u Londyńskim powstało Koło Zapachowe Książek Historycznych (Historic Book Odour Wheel), które ma pozwalać na dokumentowanie i archiwizowanie woni związanych ze starymi woluminami. Metodę opisano na łamach Heritage Science. Koło powstało jako część eksperymentu, w ramach którego odwiedzających bibliotekę w Katedrze św. Pawła w Londynie proszono o scharakteryzowanie tutejszego zapachu. Najczęściej woń biblioteki opisywano jako drzewną (taką odpowiedź wybrało 100% respondentów). Na kolejnych pozycjach uplasowały się określenia: dymny (86%), ziemisty (71%) i waniliowy (41%). Intensywność zapachów uznawano za silną-bardzo silną. Dla ponad 70% ankietowanych woń była przyjemna, a dla 14% lekko przyjemna. Również 14% uznało, że jest neutralna. W kolejnym eksperymencie odwiedzającym Birmingham Museum and Art Gallery prezentowano zapach historycznej książki (próbki pobrano z wydanej w 1928 r. książki z londyńskiego antykwariatu). Naukowcy zapisywali określenia używane do jego opisu. Najczęściej pojawiało się słowo czekolada (i wyrazy pokrewne, typu kakao i czekoladowy). Na dalszych miejscach znalazły się zaś słowa: kawa, stary, drewno i spalony. Wspominano też o rybie, zapachu ciała, śmierdzących skarpetkach i kulkach na mole. Nasze koło zapachowe stanowi przykład na to, jak naukowcy i historycy mogliby zacząć identyfikować, analizować i dokumentować wonie o znaczeniu kulturowym, np. aromaty starych książek w historycznych bibliotekach. Dotąd nie badano systematycznie roli zapachów w postrzeganiu dziedzictwa - podkreśla Cecilia Bembibre. Próbując odpowiedzieć na pytanie, czy pewne zapachy można uznać za część dziedzictwa narodowego, a jeśli tak, jak je identyfikować, chronić i konserwować, naukowcy przeprowadzili analizę lotnych związków organicznych (LZO), próbkowanych z książek w bibliotece. Z połączenia analizy LZO i odpowiedzi respondentów powstało Koło Zapachowe Książek Historycznych, które łączy chemiczny opis zapachu (np. kwas octowy) z epitetami zmysłowymi zapewnionymi przez ludzi (np. octowy). Koło Zapachowe Książek Historycznych może potencjalnie zostać narzędziem diagnostycznym dla konserwatorów, informując ich o stanie obiektu, np. stopniu rozkładu, za pośrednictwem profilu zapachowego. Brytyjczycy dodają, że koło dałoby się także zastosować do odtwarzania/tworzenia woni towarzyszących wystawom muzealnym. « powrót do artykułu
-
Wkrótce koniec wsparcia oryginalnej wersji Windows 10
KopalniaWiedzy.pl dodał temat w dziale Technologia
Microsoft ustalił datę końca wsparcia dla oryginalnej wersji Windows 10 oznaczonej numerem 1507. Edycja, która zadebiutowała w połowie 2015 roku, wkrótce zniknie z listy systemów, dla których koncern przygotowuje poprawki. Przed dwoma miesiącami Microsoft przedłużył wsparcie tej wersji i zapowiedział zakończenie go w maju, a nie w marcu. Teraz wiemy, że na ostatnie poprawki można będzie liczyć 9 maja. Kolejna na liście do zakończenia wsparcia jest wersja 1511. Stopniowe kończenie wsparcia dla kolejnych edycji Windows 10 – dotychczas ukazały się cztery edycje tego OS-u – to ważna część firmowego modelu software-as-a-service. Dotychczas koncern każdą z edycji każdego z systemów wspierał przez 10 lat, co powodowało, że przez dekadę musiał przygotowywać poprawki dla coraz większej liczby wersji tego samego OS-u. Biorąc pod uwagę fakt, że w ciągu dekady debiutowały 2-3 systemy operacyjne, utrzymanie takie systemu musiało być niezwykle trudne, kosztowne i pracochłonne. Teraz uznano, że poszczególne wersje będą wspierane przez około 18 miesięcy. Chyba, że powtórzy się sytuacja taka, jak z wersją 1507, kiedy to zdecydowano się na wydłużenie wsparcia między innymi dlatego, że w roku 2016 udostępniono tylko jedną wersję - 1607. Kolejna edycja, 1511, może zostać usunięta z listy wsparcia już w październiku bieżącego roku. Microsoft wdraża model zgodnie z którym jednocześnie wspiera jedynie dwie edycje systemu po uznaniu ich za CBB (Current Branch for Business). W modelu tym po ukazaniu się edycji N+2 (czyli drugiej po najstarszej wspieranej), w ciągu około 60 dni kończy się wsparcie dla edycji N, dotychczasowa edycja N+1 staje się edycją N, a edycja N+2 zostaje edycją N+1 i cykl się powtarza. Zgodnie z nim dotychczasowa edycja N (1507) zniknie z łańcucha aktualizacji w maju. Edycją N zostanie ta oznaczona numerem 1511, a N+1 będzie udostępniona w sierpniu ubiegłego roku wersja 1607. Z kolei wersja 1703 z bieżącego miesiąca zostanie oznaczona jako N+2. Za cztery miesiące, w sierpniu, N+2 – czyli 1703 – zostanie uznana za CBB i od tego czasu w czasie 60 dni zakończone zostanie wsparcie dla N. Użytkownicy, którzy wciąż posiadają wersję 1507 powinni do 10 maja zaktualizować ją do którejś z późniejszych edycji. Inaczej nie będą otrzymywali poprawek i rozszerzeń. Jedynym wyjątkiem są tutaj użytkownicy edycji LTSB (Long-term Servicing Branch). To osobny sposób udostępniania poprawek, dostępny tylko dla organizacji korzystających z wersji Windows 10 Enterprise. Jeśli chcemy sprawdzić, którą wersją Windows 10 dysponujemy, powinniśmy w dolnym lewym rogu ekranu kliknąć na ikonę lupy, w pasku wyszukiwania wpisać cmd i nacisnąć Enter. Pojawi się okienko, w którym po wpisaniu komendy winver i naciśnięciu Enter otrzymamy informacje o aktualnie zainstalowanej wersji. Powinna być to wersja 1607 lub, u tych użytkowników, którzy zainstalowali najnowszy zestaw aktualizacji o nazwie Creators Update, wersja 1703. « powrót do artykułu -
Namierzając swoje ofiary, nerpy obrączkowane, niedźwiedzie polarne polegają na wrażliwym nosie i bocznym wietrze. By ustalić, jak drapieżniki znajdują foki, naukowcy z Uniwersytetu w Albercie wykorzystali dane telemetryczne 123 dorosłych niedźwiedzi, zbierane przez 11 lat w Zatoce Hudsona. Porównali trasy zwierząt z układami wiatrów. Drapieżniki poszukują ofiary, wykorzystując wonie z wiatru. Ich sukces zależy od tego, jak się przemieszczają względem wiatru. Przechodzenie przez boczny wiatr zapewnia niedźwiedziom polarnym stały dopływ nowych strumieni powietrza i maksymalizuje obszar, jaki mogą przeszukać za pomocą węchu - wyjaśnia Ron Togunov z Uniwersytetu Alberty. Prof. Andrew Derocher dodaje, że najlepsze warunki do polowania węchowego panują nocą w zimie. Przeszukiwanie bocznego wiatru odbywało się najczęściej, gdy wiatr wiał z niedużą prędkością i łatwiej było lokalizować źródło konkretnego zapachu, oraz nocą, gdy niedźwiedzie są relatywnie aktywne i przez panujące warunki ze wzroku przestawiają się na węch. Autorzy publikacji z pisma Scientific Reports wskazują na skutki ocieplenia klimatu. Przewiduje się, że prędkości wiatrów w Arktyce wzrosną, potencjalnie utrudniając [niedźwiedziom] węszenie - podsumowuje Togunov. « powrót do artykułu
-
W roku 2000 na całym świecie zainstalowane były panele słoneczne o łącznej mocy około 4 GW i wydawało się, że energetyka słoneczna raczej nie ma przed sobą przyszłości. Jeszcze w 2002 roku Międzynarodowa Agencja Energii przewidywała, że do roku 2020 zainstalowana globalnie moc energetyki słonecznej wyniesie około 10 GW, a jej udział w światowej produkcji energii będzie praktycznie niezauważalny. Sytuacja szybko się jednak zmieniała. W ciągu 15 lat zainstalowana moc zwiększyła się o 5700%, osiągając w roku 2015 poziom 227 gigawatów. Międzynarodowa Agencja Energii zrewidowała swoje przewidywania i stwierdziła, że do roku 2020 moc zainstalowana wzrośnie do 400 GW. Już teraz można stwierdzić, że to prawdopodobnie mocno zaniżone przewidywania. W samym tylko roku 2015 dodano 57 GW mocy, co nawet przy nierealistycznym założeniu braku rocznego przyrostu instalowanej mocy wskazuje, że w roku 2020 zainstalowana moc ogniw fotowoltaicznych znacznie przekroczy 400 GW. Jaka więc przyszłość czeka energetykę słoneczną? Wszystko wskazuje na to, że w przyszłej dekadzie będziemy dysponowali terawatami mocy pozyskiwanej ze Słońca. Bardzo dobrym prognostykiem jest też ciągły spadek kosztów fotowoltaiki. W ciągu ostatnich 7 lat ceny spadły o 75% i obecnie średnia cena za megawatogodzinę energii słonecznej (MWh) na terenie USA to 50 USD. Dlatego też eksperci spodziewają się, że do roku 2020 w samych tylko Stanach Zjednoczonych każdego roku instalowane będą ogniwa o mocy 10-15 megawatów. W skali globalnej ceny są jeszcze niższe i w wielu miejscach zbliżają się do 30 USD/MWh. Z drugiej jednak strony energetyka słoneczna pada powoli ofiarą własnego sukcesu. Inwestorzy zaczynają obawiać się spowolnienia wzrostu instalacji, a środki na badania nad nowymi technologiami są ograniczone. Obecnie głównym celem firm inwestujących w energetykę słoneczną w USA jest zmniejszenie ceny megawatogodziny do 30 dolarów. Jednak by to osiągnąć konieczne będzie obniżenie kosztów produkcji samych paneli, zwiększenie ich wydajności i tańsza produkcja podzespołów. Perspektywy są obiecujące. Firma First Solar zapowiada produkcję paneli po tak niskich cenach, że możliwa będzie sprzedaż energii poniżej 30 USD/MWh, po latach stagnacji udało się zwiększyć wydajność ogniw krzemowych, rośnie też wydajność CIGS i Cad-Tel, a na horyzoncie pojawiły się obiecujące ogniwa z perowskitów. Jeśli wszystko dobrze pójdzie, to w roku 2030 na całym świecie mogą zostać zainstalowane ogniwa słoneczne o łącznej mocy 5 TW, a później każdego roku może być instalowany kolejny terawat. Nawet jeśli wydajność ogniw nie przekroczy 30%, to będą one zapewniały światu olbrzymią część zużywanej energii. Obecnie globalne zapotrzebowanie na energię wynosi bowiem około 15 TW. « powrót do artykułu
-
Otyłość i niedowaga zwiększają ryzyko migreny
KopalniaWiedzy.pl dodał temat w dziale Zdrowie i uroda
Zarówno otyłość, jak i niedowaga wiążą się z podwyższonym ryzykiem migreny. Ponieważ otyłość i niedowaga są modyfikowalnymi czynnikami ryzyka, świadomość, że tak właśnie działają, jest kluczowa dla cierpiących na migreny i lekarzy. Potrzeba dalszych badań, by ustalić, czy pomaganie ludziom, by stracili na wadze bądź przytyli, może obniżyć ryzyko migreny - opowiada B. Lee Peterlin ze Szkoły Medycznej Uniwersytetu Johnsa Hopkinsa. Autorzy metaanalizy uwzględnili 12 badań, w których wzięło udział 288.981 osób. Po skompilowaniu wyników i wzięciu poprawki na wiek i płeć, okazało się, że ludzie otyli i z niedowagą mieli migreny, odpowiednio, 27% i 13% częściej niż badani z prawidłową wagą. Otyłość definiowano jako wskaźnik masy ciała (BMI) równy 30 i wyższy, a niedowagę jako BMI poniżej 18,5. Wg Peterlin, ryzyko otyłość-migrena jest umiarkowane. Amerykanka podkreśla, że wiek i płeć były istotnymi zmiennymi w relacji BMI i migreny. Zarówno ryzyko chorób związanych z otyłością, jak i częstość występowania migreny są [bowiem] większe u kobiet i młodszych ludzi. Nie wiadomo, jak skład ciała wpływa na migreny. Tkanka tłuszczowa wydziela jednak bardzo dużo różnych związków, które mogą oddziaływać na rozwój lub wyzwolenie tej przypadłości. Niewykluczone także, że w grę wchodzą inne czynniki, np. zmiany w aktywności fizycznej, leki czy inne zaburzenia, np. depresja [...]. Autorzy publikacji z pisma Neurology podkreślają, że ograniczeniem metaanalizy było to, że w połowie uwzględnionych badań ochotnicy sami stwierdzali, że mają migreny, a w ponad połowie sami wskazywali swoje BMI. « powrót do artykułu -
Na Uniwersytecie Utah powstały inteligentne okulary z ciekłą soczewką, która dzięki specjalnemu algorytmowi na bieżąco dostosowuje swój kształt do odległości i wady wzroku właściciela, tak by dzięki zmianie ogniskowej mógł ostro widzieć to, na co w danym momencie patrzy. Jak podkreśla dr Andrew Weitz, dyrektor programowy z Narodowego Instytutu Obrazowania Biomedycznego i Bioinżynierii, wszystkie zastosowane technologie miały służyć jednemu celowi: uzyskaniu okularów, które byłyby dobre dla wszystkich. Okulary mają naśladować zachowanie miarowego oka. Zdrowa soczewka skupia promienie na siatkówce. Z wiekiem jednak sztywnieje i równoległe promienie są skupiane albo przed, albo za soczewką. By skorygować wadę wzroku, dobiera się odpowiednie okulary. Jeśli trzeba, stosuje się obszary o różnych mocach optycznych (do widzenia bliży i dali). W okularach opracowanych przez prof. Carlosa H. Mastrangelo i doktoranta Nazmula Hasana soczewki są wykonane z gliceryny umieszczonej między dwiema giętkimi membranami. Montuje się je w systemie elektromechanicznym, który wygina błony, by dostosować ogniskową. Dzięki tym właściwościom jedna soczewka może działać jak kilka o różnych mocach optycznych. By móc skorzystać z okularów, za pomocą dołączonej aplikacji należy wprowadzić do systemu wartość wady wzroku. Informacje o tym, gdzie użytkownik patrzy (jak daleko) zapewnia z kolei czujnik zamontowany w mostku okularów. Precyzyjne pomiar odległości zapewniają pulsy promieni podczerwonych. Dysponując tymi danymi, algorytm doprowadza do zmiany kształtu soczewek w zaledwie 14 milisekund, a więcej 25 razy szybciej, niż trwa mrugnięcie. Teoretycznie to mogą być jedyne okulary, jakie dana osoba będzie musiała kiedykolwiek kupić, ponieważ są one w stanie skorygować większość wad refrakcyjnych. [Co jakiś czas] pacjent powinien tylko wpisać wartości z nowej recepty od okulisty. Jako że okulary są "napakowane" różnymi rozwiązaniami technologicznymi, obecny prototyp jest dość masywny. Naukowcy stale jednak pracują nad ich miniaturyzacją. Z myślą o komercjalizacji założyli start-up Sharpeyes. Jeśli wszystko pójdzie zgodnie z planem, inteligentne okulary powinny trafić do sklepów w ciągu ok. 3 lat. « powrót do artykułu
-
Mrówki ratują po bitwie rannych towarzyszy
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
Wśród mrówek z gatunku Megaponera analis zaobserwowano niezwykłe zjawisko. Zwierzęta zajmują się towarzyszami, którzy odnieśli rany w walce. M. analis spędzają całe dnie na poszukiwaniu gniazd termitów, atakowaniu ich i polowaniu na te owady. Erik Thomas Frank i jego koledzy z Uniwersytetu w Würzburgu przez dwa lata obserwowali M. analis w Parku Narodowym Comoé na Wybrzeżu Kości Słoniowej. Śledzili 52 kolonie, które przeprowadziły 420 najazdów na gniazda termitów. Atak rozpoczyna się, gdy wysłana na zwiad mrówka napotka termitierę. Wraca wówczas do własnego gniazda, z którego wyrusza kolumna bojowa licząca 200-500 samic. Po przybyciu na miejsce rozdziela się ona na grupy. Większe mrówki rozkopują termitierę, a mniejsze wchodzą do środka, zabijają termity i wyciągają ciała na zewnątrz. Wówczas większe mrówki biorą owady i przenoszą je do własnego gniazda. Do wyżywienia kolonii liczącej 1000 mrówek konieczne jest przeprowadzenie 2-4 napaści każdego dnia. Bitwy z termitami są niebezpieczne. Obrońcy często odgryzają głowy i kończyny agresorom lub wbijają się w ich ciała. Rany odnoszą głównie mniejsze mrówki, które operują wewnątrz gniazd termitów. Poranione mrówki starają się wyjść z termitier. Okazało się, że ranni nie są pozostawiani samym sobie. Po bitwie większe mrówki przeszukują pobojowisko. Mimo, że są ślepe, mają dobry zmysł węchu. Ranne mrówki wydzielają spod szczęk specjalne substancje zapachowe, które udało się zidentyfikować jako disiarczek dimetylu i trisiarczek dimetylu. Gdy większe wyczują mrówkę, która je wydzieliła, zabierają ją do własnego gniazda, nawet jeśli muszą przy tym transportować wbite w jej ciało termity. Na miejscu pozostawiane są tylko martwe i śmiertelnie ranne mrówki. Po powrocie do gniazda z ciał rannych mrówek usuwane są termity. Mrówki, które utraciły kończyny, mają początkowo trudności z poruszaniem się, ale w ciągu 24 godzin ponownie są aktywne. Frank i jego zespół obliczyli, że każdego dnia w ten sposób ratowanych jest 9-15 mrówek, a 95% z nich szybko wraca do normalnej aktywności i ponownie bierze udział w bitwach. A mowa tu tylko o najciężej rannych mrówkach. Z każdej bitwy z długotrwałymi obrażeniami wychodzi co najmniej 21 procent mrówek. To właśnie duży odsetek rannych wyjaśnia altruizm mrówek. Ich porzucanie byłoby równoznaczne z pozbywaniem się produktywnych członków społeczności. Naukowców zastanowiło jednak noszenie rannych przez inne mrówki. Czy nie wymaga to zbytniego wysiłku? Wybrali więc 20 przypadkowych rannych mrówek i zmusili je do samodzielnego marszu do gniazda. Okazało się, że 30% z nich tam nie dotarła. Większość z nich została upolowana przez pająki i inne gatunki mrówek. Jedna zaś padła z wyczerpania, gdyż musiała ciągnąć ze sobą dwa wbite w jej ciało termity. Noszenie rannych ma więc sens, gdyż pozwala im przeżyć. Okazało się też, że mrówki ratują rannych wyłącznie wtedy, gdy wracają do gniazda po bitwie. Gdy na drodze kolumny maszerującej w kierunku gniazda termitów ułożono ranną mrówkę, jej towarzysze ją zignorowali. Jednak gdy eksperyment powtórzono, gdy kolumna wracała po napaści na termity, ranna natychmiast została zabrana do gniazda. Nie wystarczy więc, by mrówka wydzieliła odpowiednie substancje. Musi to jeszcze zrobić w odpowiednim kontekście. Na ewolucję takiego właśnie zachowania miała zapewne wpływ niewielka liczebność kolonii M. analis. Każdego dnia przychodzi w nich na świat zaledwie około 13 młodych, zatem każdy osobnik się liczy. Naukowcy z Würzburga zauważyli też, że podobne sygnały chemiczne wysyłają też mrówki z gatunku Paltothyreus tarsatus. W ich przypadku jednak sygnały takie powodowały, że mrówka, która je wyczuła, zaczynała szaleńczo kopać w ziemi. Okazało się, że mrówki P. tarsatus często padają ofiarami mrówkolwowatych, które przygotowują z piasku pułapki. Uwalniane w stresie sygnały chemiczne to prośba o wykopanie z takiej pułapki. Zdaniem uczonych uruchamiane związkami chemicznymi zachowania M. analis oraz powodowane empatią i innymi czynnikami zachowania ludzi, którzy dbają o rannych czy chorych wyewoluowały osobno, ale mają podobne podstawy. Zachowywanie przy życiu członków własnej grupy przynosi grupie korzyści. « powrót do artykułu -
Pajęczyny pomogą wykryć zanieczyszczenie powietrza
KopalniaWiedzy.pl dodał temat w dziale Ciekawostki
Czy pajęczych sieci można używać w walce z zanieczyszczeniem powietrza? Takie badania prowadzą naukowcy z Wydziału Inżynierii Środowiska Politechniki Wrocławskiej. Dzięki ich pracy można nie tylko monitorować stan powietrza, lecz także określić rodzaj zanieczyszczeń i ich źródło. Badania nad sieciami pająków prowadzone są na naszej uczelni od kilku lat przez dr hab. Justynę Rybak z Wydziału Inżynierii Środowiska, a teraz dołączyli do niej młodzi naukowcy – doktorant Radosław Rutkowski i Magdalena Bożek, studentka działająca w Sekcji Biomonitoringu Koła Naukowego Environmental Team. Ulepszyć proces kontroli powietrza W powietrzu różnego rodzaju zanieczyszczenia m.in. związki kancerogenne, czyli zwiększające ryzyko rozwoju nowotworów takiej jak np. benzopiren, rozprzestrzeniają się bardzo szybko, dlatego jego stan trzeba stale monitorować. Służą do tego różnego rodzaju elektroniczne czujniki, które są jednak dosyć ciężkie, bardzo drogie, wymagają ciągłego dozoru, a prowadzone za ich pomocą pomiary są ograniczone czasowo. Dzięki naszym badaniom chcielibyśmy udoskonalić cały proces – mówi Radosław Rutkowski. W tym celu nasi naukowcy skupili się na badaniach sieci pająków z rodziny lejkowcowatych, których przedstawiciele tkają gęste, łatwe do zebrania sieci w kształcie płachty z lejkiem, w którym zamieszkują. Pająki te nie są zbyt duże, chociaż np. długość ciała kątnika większego może dochodzić do 2 cm, a rozpiętość odnóży nawet do 10 cm. Co ważne pająki te nie zjadają swoich sieci, a to pozwala na ich dalszą analizę. Działania badaczy można określić jako biomonitoring, czyli obserwację stanu środowiska za pomocą określonych gatunków zwierząt lub roślin. W kwestii badania zanieczyszczenia powietrza analizować można m.in. mchy, porosty, skład liści czy igieł, sierść zwierząt, ptasie pióra czy właśnie sieć pająków. Pajęcza sieć wydaję się w tym zestawieniu najbardziej korzystna. Pająki żyją praktycznie wszędzie, w domach, fabrykach, tunelach komunikacyjnych, parkach oraz innych miejscach użyteczności publicznej i co ciekawe zanieczyszczenia im tak bardzo nie przeszkadzają. Samą sieć do badań można łatwo i tanio zebrać lub też wyhodować w laboratorium i samodzielnie rozstawić – tłumaczy doktorant. Dzięki analizie zebranych sieci można nie tylko monitorować zmiany poziomu zanieczyszczenia powietrza w określonym czasie, lecz także zbadać rodzaj zanieczyszczeń, na jakie były one narażone i ich źródło (np. komunikacyjne lub przemysłowe). Sieci nadają się również do sprawdzania poziomu zanieczyszczenia powietrza metalami ciężkimi oraz wielopierścieniowymi węglowodorami aromatycznymi (WWA), a więc związkami, które mają właściwości rakotwórcze. Optymalny okres badawczy, w trakcie którego sieć jest narażona na oddziaływanie zanieczyszczeń, wynosi trzy miesiące, chociaż można też badać sieci kilkudniowe. Zaletą naszej metody jest fakt, że mamy możliwość oceny poziomu zanieczyszczeń z kilku miesięcy, czego nie da się wykonać żadnym innym sposobem. Po tym czasie jesteśmy w stanie przeanalizować stopień kumulacji zanieczyszczeń i określić, jak bardzo ludzie przebywający w danym obszarze są na nie narażeni – podkreśla Radosław Rutkowski. Rozwiązanie tańsze, ale czy równie skuteczne? We Wrocławiu mamy obecnie trzy elektroniczne stacje, które monitorują jakość powietrza. Zlokalizowane są przy al. Wiśniowej, ul. Korzeniowskiego i przy ul. Bartniczej. To zbyt mało, aby kompleksowo ocenić stan powietrza w całym mieście, tymczasem pajęcze sieci można rozmieścić praktycznie wszędzie i dzięki analizie wskazać np. miejsca, w których zanieczyszczenie powietrza jest największe – dodaje Magdalena Bożek. We Wrocławiu sieci do badań były już zbierane m.in. na Biskupinie, przy ul. Na Grobli, Starogranicznej, Długiej, Pułaskiego, przy pl. Grunwaldzki i przy al. Wiśniowej. Pod względem zanieczyszczeń najgorzej wypadły próbki, które znajdowały się w bezpośrednim sąsiedztwie ruchu drogowego, a więc przy al. Wiśniowej, pl. Grunwaldzkim i przy ul. Pułaskiego. Przed naukowcami stoi jednak sporo wyzwań. Każda rodzina pająków tka bowiem inny rodzaj sieci, które w różnym stopniu mogą reagować na zanieczyszczenia. Jesteśmy jednak w stanie stwierdzić, które miejsca są bardziej zanieczyszczone i objąć badaniami dużo większy obszar niż urządzenia elektroniczne. To prostsze i dużo tańsze rozwiązanie – zaznacza studentka. Tego typu projekty badawcze mają jednak duży potencjał rozwojowy o czym świadczy choćby fakt, że w Stanach Zjednoczonych są już plany wprowadzenia do użytku tej metody monitoringu powietrza. Projekt ten jest realizowany we współpracy właśnie z Politechniką Wrocławską. Pajęcze sieci, choć zapewne nie zastąpią elektronicznych czujników, stanowią znakomite uzupełnienie stosowanych obecnie metod kontroli powietrza, a na pewno są dużo tańsze. Mamy też sporo pomysłów na rozwinięcie naszych badań – zapewnia Radosław Rutkowski. W przyszłości naukowcy chcieliby m.in. porównać skład zanieczyszczeń na sieciach z zawartością zanieczyszczeń w ciele pająka oraz ich reakcjami na poziomie komórkowym i sprawdzić tym samym, jak zwierzę radzi sobie z kumulacją zanieczyszczeń, czy są korelacje w tym względzie i wyłonić gatunki najlepiej radzące sobie z wysokim poziomem zanieczyszczeń. KN Environmental Team Działające na Wydziale Inżynierii Środowiska Koło Naukowe Environmental Team powstało w 2011 r. Zrzesza ono studentów oraz doktorantów Politechniki Wrocławskiej z kierunków Inżynieria Środowiska i Ochrona Środowiska. Koło podzielone jest na pięć sekcji: Sekcja Wodociągów i Kanalizacji, Sekcja Biomonitoring, Sekcja Biotechnologia Środowiska, Sekcja Czyste i Zdrowe Powietrze oraz Sekcja Gospodarka Odpadami. Opiekunem naukowym koła jest prof. Izabela Sówka. Działalność Koła opiera się przede wszystkim na prowadzeniu badań naukowych, udziale w szkoleniach i konferencjach, organizacji wycieczek dydaktycznych oraz współpracy z przedsiębiorstwami. « powrót do artykułu -
Zaskakujące odkrycie zespołu prof. Marisy Roberto z Instytutu Badawczego Ellen Scripps może doprowadzić do powstania spersonalizowanych metod leczenia alkoholizmu. Amerykanie ujawnili kluczową różnicę między mózgami uzależnionych i nieuzależnionych szczurów. Po podaniu alkoholu w obu grupach występowała co prawda zwiększona aktywność środkowego ciała migdałowatego (ang. central amygdala, CeA), ale działo się to za pośrednictwem 2 zupełnie różnych szlaków sygnalizacyjnych. Po podaniu alkoholu nieuzależnionym szczurom okazało się, że aktywność neuronów w ich CeA była napędzana przez bramkowane napięciem kanały wapniowe L (ang. L-type voltage-gated calcium channels, LTCCs), które wzmacniały uwalnianie neuroprzekaźnika GABA. Blokowanie LTCCs zmniejszało spożycie alkoholu przez te gryzonie. U szczurów uzależnionych w błonach neuronów występowało mniej LTCCs. Zamiast tego na aktywność CeA wpływały hormon stresu - czynnik uwalniający kortykotropinę (ang. corticotropin-releasing factor, CRF) - i jego receptor typu 1. - CRF1. Koniec końców naukowcy zauważyli, że blokowanie CRF1 w centralnym amygdala zmniejszało dobrowolne spożycie alkoholu. W związku z rozwojem uzależnienia następuje zmiana mechanizmów molekularnych leżących u podłoża reakcji CeA na alkohol (z napędzanej przez LTCC na napędzaną CRF1) - wyjaśnia Roberto. Badanie zespołu z Instytutu Scripps pokazuje, że specjaliści mogliby analizować markery genetyczne, by stwierdzić, który pacjent jest podatny na hiperaktywację CRF-CRF1 i kto mógłby skorzystać na zastosowaniu leków blokujących tę aktywność. « powrót do artykułu
-
Reklama Burger Kinga strolowała urządzenia Google'a
KopalniaWiedzy.pl dodał temat w dziale Ciekawostki
Burger King wpadł na świetny pomysł zareklamowania swoich produktów. Przygotował reklamę telewizyjną, która... uruchamiała Google Assistanta w domach osób oglądających reklamę. Na krótkim filmie widzimy młodego człowieka w stroju pracownika Buger Kinga, który trzymając burgera wyjaśnia, że w 15-sekundowej reklamie nie da się wymienić wszystkich świeżych składników, z których stworzono kanapkę Whopper. Na koniec aktor mówi: OK Google, what is the Whopper burger?. Komenda "OK Google" uruchamia urządzania korzystające z Google Assistanta, jak np. telefony z Androidem czy Google Home. Urządzenia te wykonywały polecenie, które zostało wydane po słowach "OK Google", wyszukiwały w Wikipedii informacje na temat Whoppera i zaczynały na głos czytać listę składników. Google'owi nie spodobał się pomysł Google Burgera i na swoich serwerach założył blokadę, przez którą urządzenia z Google Assistant nie reagują na reklamę. Jednak zanim się to stało część użytkowników dowiedziała się od swoich urządzeń, jaki jest skład Whoppera. Oczywiście znaleźli się też wandale, którzy przystąpili do edycji Wikipedii i dopisali np. cyjanek do składu kanapki. Mimo że Google Assistant pobiera informacje z cache'u, a nie z bieżącej wersji Wikipedii, podobno niektórzy klienci mieli okazję usłyszeć fałszywy skład Whoppera. Telefony z Androidem są bardziej odporne na opisane powyżej działania niż urządzenie Google Home. Korzystają one z funkcji zaufanego głosu, która pozwala na wydanie komendy "OK Google" jedynie właścicielowi. Ponadto Assistant nie jest na nich domyślnie uruchomiony. Mimo że Google szybko zareagował i zablokował możliwość uruchomienia Assistanta przez reklamę, to Burger King z pewnością odniósł sukces. O jego pomyśle zrobiło się głośno, szeroko informowały o tym media, a reklamę obejrzały w internecie setki tysięcy osób. « powrót do artykułu