Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36960
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. W miejscowości Nikolskoje w Obwodzie Astrachańskim rolnik odkrył przez przypadek kurhan 3 sarmackich arystokratów sprzed 2,5 tys. lat. U boku jednej z osób znaleziono końską czaszkę i bogato zdobioną uprząż. Władze Obwodu podały, że choć kurhan z VI w. p. n.e. został splądrowany, w pobliżu drewnianych trumien znaleziono szereg artefaktów, w tym broń, złotą biżuterię i przedmioty domowego użytku. Rustam Mudajew odkrył kurhan, gdy kopiąc dół w pobliżu domu, natknął się na kociołek z brązu. Znalezisko przekazał Muzeum Astrachańskiemu. W ciągu 12 dni wykopalisk na obszarze ok. 750 m2 zespół Georgija Stukalowa odkrył 3 pochówki. Analizy laboratoryjne pokażą, jak osoby pochowane w kurhanie zmarły, jakiej były płci oraz ile miały lat. Zgodnie z planem, archeolodzy mieli pracować nad kolejnymi warstwami kopca jeszcze przez tydzień. « powrót do artykułu
  2. Badania przeprowadzone w amerykańskim Narodowym Instytucie Cukrzycy, Chorób Nerek i Układu Pokarmowego (NIDDK) sugerują, że wysoko przetworzona żywność przemysłowa powoduje, że więcej jemy i przybieramy na wadze. Podczas pierwszych randomizowanych kontrolowanych badań tego typu zauważono, że osoby spożywające wysoko przetworzoną żywność przybierały na wadze bardziej, niż osoby jedzące pokarmy mniej przetworzone, nawet jeśli dostarczane im pożywienie zawierało tyle samo kalorii i składników odżywczych. W eksperymencie przeprowadzonym w siedzibie NIDDK wzięło udział 20 dorosłych zdrowych ochotników. Każdemu z nich zaoferowano 6000 USD za rezygnację z części wolności. Mieli oni przez 28 dni mieszkać na terenie NIDDK, nie mogli go opuszczać i jedli tylko to, co otrzymywali od badaczy. Na potrzeby badań skorzystano z systemu klasyfikacji żywności NOVA, który za „ultraprzetworzone” uznaje to pożywienie, które w przeważającej mierze zawiera składniki występujace w fabrycznie wytwarzanej żywności, takie jak tłuszcze utwardzone, syrop glukozowo-fruktozowy, wzmacniacze smaku i zapachu czy emulgatory. Wcześniejsze badania obserwacyjne prowadzone na dużych grupach ludności wykazały istnienie korelacji pomiędzy spożywaniem wysoko przetworzonej żywności a występowaniem różnych problemów zdrowotnych. Jednak, jako że osoby, od których pozyskiwano dane, nie były losowo przydzielana do grup spożywających określone rodzaje pożywienia, nie można było jednoznacznie stwierdzić, czy to sama wysoko przetworzona żywność powoduje problemy, czy też ludzie, którzy ją spożywają maja problemy z innego powodu, np. dlatego, że nie spożywają świeżych warzyw i owoców. Dlatego też w NIDDK przeprowadzono ściśle kontrolowany eksperyment. Wzięło w nim udział 10 kobiet i 10 mężczyzn, których rozlosowano do dwóch grup. Jedna grupa przez 2 tygodnia jadła wysoko przetworzone pokarmy, druga grupa jadła pokarmy minimalnie przetworzone. Po dwóch tygodniach dietę oby grup zamieniano. Każdy uczestnik badania mógł zjeść tyle ile chciał. Posiłek wysoko przetworzony mógł np. składać się z bagietek z serkiem topionym i bekonem, miało przetworzony zaś z płatków owsianych z mlekiem, owocami i orzechami. Oba rodzaje pożywienia miały tyle samo kalorii i składników odżywczych. Ponadto uczestnicy badania otrzymali luźne ubrania, by nie mogli obserwować ewentualnych zmian swojej wagi. Badania wykazały, że osoby jedzące żywność wysoko przetworzoną, spożywali jej więcej, zatem pochłaniali więcej kalorii i bardziej przybierali na wadze. Chcemy też sprawdzić, jak poszczególne elementy wysoko przetworzonej diety wpływają na zachowania związane z odżywianiem się i na przybieranie na wadze. Naszym kolejnym krokiem będzie zaprojektowanie podobnych eksperymentów z różnymi dietami wysoko przetworzonymi, by sprawdzić, czy będzie to miało wpływ na ilość spożywanych kalorii i wagę, mówi doktor Kevin D. Hall, główny autor badań. Nie można bowiem wykluczyć, że różnice w spożywanych kaloriach pomiędzy dietami wysoko i nisko przetworzonymi są spowodowane niewielkimi różnicami w ilości białek w obu dietach. Z czasem różnice takie mogą się akumulować, prowadzić do przybierania na wadze i problemów zdrowotnych, stwierdza dyrektor NIDDK Griffin P. Rodgers. Mimo, że to kolejne wyniki badań sugerujące, że wysoko przetworzona żywność jest szkodliwa, ich autorzy przyznają, że ograniczenie tego typu żywności może być trudne. Musimy pamiętać, że przygotowanie mniej przetworzonego posiłku wymaga więc pieniędzy i czasu. Powiedzenie ludziom, by zdrowo się odżywiali nie przyniesie efektu, jeśli nie będą mieli dostępu do zdrowej żywności, dodaje Hall. « powrót do artykułu
  3. Laboratorium Narodowe Gran Sasso, główne laboratorium fizyczne Włoch i jedno z największych tego typu na świecie, ma poważne kłopoty. Prokuratura z pobliskiego Teramo oskarżyła 10 osób o narażenie na niebezpieczeństwo lokalnego źródła wody pitnej. Wśród oskarżonych jest 3 menedżerów laboratorium – Fernando Ferroni, prezes Narodowego Instytutu Fizyki Jądrowej, do którego laboratorium należy, Stefano Ragazzi, szef laboratorium oraz Raffaele Adinolfi Falcone, dyrektor ds. środowiskowych w Gran Sasso. Ponadto oskarżonych jest 3 dyrektorów z firmy Strada dei Parchi, odpowiedzialnej za pobliskih 10-kilometrowy tunel drogowy i czterech dyrektorów Ruzzo Reti, operatora wodociągu dostarczającego wodę. Laboratorium Narodowe Gran Sasso znajduje się 1400 metrów pod górą Gran Sasso. Warstwy skał izolują je od świata zewnętrznego i promieniowania kosmicznego, które mogą zakłócać prowadzone w laboratorium eksperymenty nad ciemną materią czy neutrino. W bezpośrednim sąsiedztwie laboratorium znajdują się zasoby wody pitnej, z której korzystają setki tysięcy ludzi, a które są narażone na zanieczyszczenie chemikaliami wykorzystywanymi w Gran Sasso. Śledztwo rozpoczęto po skardze złożonej przez Augusto De Sanctisa, prezesa niedochodowej organizacji ekologicznej Stacja Ornitologiczna Abruzzo. Złożył on doniesienie w sprawie serii niewielkich wypadków, do których doszło w laboratorium w 2016 roku, w tym i do takiego, w czasie którego niewielka ilość rozpuszczalników organicznych zanieczyściła wodę pitną. De Sanctis twierdzi, że największy z eksperymentów prowadzonych w Gran Sasso stanowi poważne zagrożenie dla źródeł wody pitnej. Eksperyment ten, Borexino, w ramach którego badane są neutrino pochodzące ze Słońca, wykorzystuje 1300 ton węglowodoru aromatycznego o nazwie pseudokumen, a w Large Volume Detector, który również bada neutrino, znajduje się 1000 ton spirytusu mineralnego. De Sanctis wniósł oskarżenie na podstawie przepisów z 2006 roku, które mówią, że tego typu substancje nie mogą znajdować się w odległości mniejszej niż 200 metrów od źródeł wody pitnej, co – jego zdaniem – ma miejsce w Gran Sasso. Narodowy Instytut Fizyki Jądrowej już w listopadzie ubiegłego roku wynajął firmę, która do końca 2020 roku ma rozebrać Borexino i LVD. Jednak w ubiegłym miesiącu pojawiły się niespodziewane trudności. Otóż firma Strada dei Parchi, która została oskarżona, że nie potrafi zapobiec zanieczyszczeniu źródeł wody pitnej przez samochody poruszające się zarządzanym przez nią tunelem, wysłała do Ministerstwa Transportu, Narodowego Instytutu Fizyki Jądrowej i innych zainteresowanych informację, że od 19 maja tunel będzie zamknięty. To odcięłoby Laboratorium Gran Sasso od świata. W wyniku negocjacji ustalono, że tunel będzie tymczasowo otwarty. W sprawę włączył się rząd, który oznajmił, że powoła komisarza nadzorującego prace nad odpowiednim odizolowaniem zbiornika, w tym nad izolacjami laboratorium i części tunelu. Prace mają pochłonąć około 170 milionów euro. Jednak De Sanctis nie wierzy, by to przyniosło jakiekolwiek efekty. Przypomina sprawę z 2002 roku, kiedy to po wycieku chemikaliów z Borexino powołano specjalnego komisarza i przyznano mu 84 miliony euro na przeprowadzenie odpowiednich prac izolacyjnych. Prac tych nigdy nie wykonano. Potrzebujemy kogoś, kto będzie koordynował prace różnych instytucji i zmusi je do wypełnienia swoich obowiązków, mówi De Sanctis. Antonio Zoccoli z Uniwersytetu w Bolonii i członek komitetu wykonawczego Narodowego Instytutu Fizyki Jądrowej twierdzi, że Instytut nie łamie prawa prowadząc prace w Borexino i LVD. Argumentuje, że jako iż laboratorium jest otoczone przez zbiornik, to nie wiadomo dokładnie, w którym miejscu jest źródło wody. Twierdzi też, że przestrzegane są wszelkie przepisy, a nikt z rządu nigdy nie twierdził, że laboratorium łamie przepisy z 2006 roku. De Sanctis odpowiada, że to nieprawda, gdyż w 2013 roku Narodowy Instytut Zdrowia poinformował, iż laboratorium powinno drastycznie ograniczyć swoją działalność. « powrót do artykułu
  4. Dzięki mikroskopijnym guzkom na egzoszkielecie ciemne plamki pająków z rodzaju Maratus odbijają zaledwie 0,5% światła (dzieje się tak przy kącie zbierania rzędu 30°). Dzięki temu są one postrzegane jako czarniejsze od zwykłej czerni. Jak tłumaczy Dakota McCoy z Uniwersytetu Harvarda, ultraczarne plamki generują złudzenie optyczne i sprawiają, że zlokalizowane w pobliżu na odwłoku barwne wzory wydają się jaskrawsze i praktycznie świecą. W czasie pokazów godowych samce wprawiają barwny odwłok w wibracje. Żółte i czerwone kolory to skutek obecności barwników (3-OH-kinureniny i ksantommatyny). Niebieskie i fioletowe kolory to z kolei skutek oddziaływania światła z włoskowatymi łuskami. Czarne obszary także zawierają barwnik, ale badania przeprowadzone za pomocą skaningowego mikroskopu elektronowego pokazały, że na superczarnych plamkach M. speciosus i M. karrie znajdują się dodatkowo drobne wyrostki. Spokrewnione z tymi pająkami jednolicie czarne skakuny z rodzaju Cylistella mają dla odmiany gładką teksturę. Dzięki symulacjom zespół McCoy wykazał, że wyrostki na kilka sposobów sprawiają, że ciemne plamy wydają się jeszcze ciemniejsze. Trafiając na nierówność, fala świetlna ugina się np. w taki sposób, że "omija" pole widzenia samicy. W grę wchodzi też odbicie wielokrotne (ang. multiple scattering). Poza tym wyrostki są mikrosoczewkami; fala świetlna obiera dłuższą drogę przez pochłaniające pigmenty melaninowe. « powrót do artykułu
  5. Jutro o godzinie 4:30 czasu polskiego firma SpaceX ma zamiar wystrzelić własne satelity komunikacyjne z rodziny Starlink. Przedsiębiorstwo Elona Muska chce tym samym wejść na nowy dla siebie rynek dostawcy internetu. SpaceX to niewielka firma, a margines zysku z jej obecnej działalności nie jest duży. Tymczasem przedsiębiorstwo ma wielkie ambicje, chce wysyłać ludzi w przestrzeń kosmiczną. Aby je zrealizować musi znaleźć dodatkowe źródła przychodu. Jednym z nich może być zapewnienie łączy internetowych w każdym miejscu na świecie. Start rakiety Falcon 9 z pierwszymi elementami konstelacji Starlink miał odbyć się w nocy ze środy na czwartek czasu polskiego, jednak został przełożony z powodu silnych wiatrów wiejących w górnych partiach atmosfery. Za kilka godzin SpaceX ponownie spróbuje rozpocząć budowę Starlinka. SpaceX zwykle wynosi ładunki na zlecenie NASA i firm prywatnych. Tym razem na orbitę mają trafić jej własne satelity, a Falcon ma wynieść ich od razu 60. Z czasem będą wysyłane kolejne, a ostatecznym celem jest zapewnienie sygnału w niemal każdym miejscu na Ziemi. Elon Musk powiedział, że łączna masa satelitów, wynosząca blisko 14 ton, jest najcięższym ładunkiem, jaki kiedykolwiek wynosiła rakieta Falcon 9. Dodał, że satelity Starlink będą przekazywały sobie dane korzystając z pośrednictwa stacji naziemnych. Brak im jednak laserów, które umożliwiłyby bezpośrednią łączność pomiędzy satelitami. Lasery mają znaleźć się w przyszłych wersjach Starlink. Jeśli wszystko pójdzie zgodnie z planem to satelity opuszczą rakietę godzinę po starcie i trafią na niską orbitę okołoziemską (LEO). Dwie lub trzy godziny później zostaną włączone. Elon Musk jest tym razem ostrożny i studzi zapał osób, które nie mogą się doczekać, by skorzystać z nowej oferty SpaceX. Zastosowaliśmy tam dużo nowych technologii. Możliwe, że niektóre z satelitów nie będą działały. Tak naprawdę jest też możliwe, choć prawdopodobieństwo jest niewielkie, że wszystkie satelity odmówią posłuszeństwa, stwierdził Musk. SpaceX wchodzi na rynek, na którym działa już konkurencja. Wiele firm oferuje już internet satelitarny. Ich urządzenia korzystają z orbity geostacjonarnej (GEO). Zaletą tego rozwiązania jest fakt, że satelita okrąża Ziemię w takim samym czasie, w jakim trwa obrót Ziemi dookoła własnej osi. Zatem satelita ciągle wisi nad tym samym punktem i zapewnia łączność na obszarze objętym swoim zasięgiem. Wadą umieszczenia satelity na GEO jest fakt, iż orbita ta znajduje się na wysokości około 36 000 kilometrów nad Ziemią. To zaś oznacza, że do praktycznej komunikacji dwustronnej sygnał musi przebyć ponad 70 000 kilometrów. Mogą więc pojawić się opóźnienia, które mogą być widoczne tam, gdzie potrzebna jest szybsza wymiana danych, jak np. podczas online'owych gier wideo. Ponadto obecnie satelity umieszczone na GEO nie pokrywają swoim sygnałem całego obszaru planety. Niska orbita okołoziemska znajduje się na wysokości od 200 do 2000 kilometrów. Sygnał ma więc do przebycia znacznie krótszą drogę i w praktyce opóźnienia nie powinny być większe, niż przy korzystaniu z sygnału nadawanego z Ziemi. Jednak, jako że satelity na LEO poruszają się znacznie szybciej względem Ziemi, to obszar, który jest pokryty sygnałem z danego satelity, ciągle się przesuwa. Zatem jeśli chcemy zapewnić nieprzerwaną łączność na danym obszarze, musimy mieć wiele satelitów, których ruch jest zsynchronizowany tak, by gdy jeden satelita opuszcza dany obszar, kolejny natychmiast wlatywał w jego miejsce. Mark Juncosa, wiceprezes SpaceX odpowiedzialny za kwestie inżynieryjne, mówi, że po 12 dodatkowych startach rakiet z satelitami Starlink jego firma obejmie swoimi usługami całe USA, po 24 startach będzie mogła zapewnić łączność na najgęściej zaludnionych obszarach, a po 30 startach ze Starlinka będzie można korzystać na całym świecie. Starlink to niezwykle ważne przedsięwzięcie w planach SpaceX. Jak już wspomnieliśmy, firma potrzebuje pieniędzy na realizację swoich podstawowych planów związanych z wysyłaniem ludzi w przestrzeń kosmiczną. Jak przyznał Elon Musk, przychody biznesu związanego z wynoszeniem ludzi i towarów na zlecenie mogą w przyszłości sięgnąć 3 miliardów dolarów rocznie, tymczasem potencjalne przychody z dostarczania internetu mogą być nawet 10-krotnie wyższe. Postrzegamy to jako sposób na wygenerowanie środków, które będziemy mogli użyć na tworzenie coraz bardziej zaawansowanych rakiet i statków kosmicznych. To kluczowy element planu budowy stacji na Księżycu i samowystarczalnego miasta na Marsie, mówi Musk. Pozostaje jeszcze jeden ważny problem. Obecnie na LEO znajduje się około 2000 działających satelitów. Jeśli wszystko pójdzie zgodnie z planem, większość satelitów krążących wokół Ziemi będzie należała do SpaceX. To duża rzecz, przyznaje Musk. Możemy też przypuszczać, że konkurencja nie będzie zasypiała gruszek w popiele. W najbliższych latach wokół naszej planety może więc krążyć kilkakrotnie więcej satelitów niż obecnie. Tymczasem już obecnie kosmiczne śmieci są coraz większym problemem. Coraz więcej satelitów oznacza z jednej strony, że te, które się zepsują lub zakończy się czas ich pracy, staną się kolejnymi odpadkami, z drugiej strony im ich więcej, tym większe ryzyko kolizji z już istniejącymi śmieciami, a wskutek każdej z takich kolizji pojawia się olbrzymia liczba szczątków i znowu wzrasta ryzyko kolizji z działającymi satelitami. Musk mówi, że każdy z satelitów Starlink zostanie wyposażony w dane o orbitach wszystkich znanych odpadków kosmicznych i będzie mógł ich unikać. Ponadto zapewnia, że nieczynne satelity będą z czasem spadały na Ziemię i w 95% będą płonęły w atmosferze. To jednak oznacza, że z każdego satelity na powierzchnię spadnie kilkanaście kilogramów odłamków. Zgodnie z zapewnieniem SpaceX mają być one kierowane na Ocean Spokojny. Ryzyko, że ktoś na Ziemi zostanie zraniony lub zabity przez szczątki spadającego satelity jest minimalne. Jednak biorąc pod uwagę fakt, że szybko rośnie zarówno liczba satelitów jak i liczba ludzi, można się spodziewać, że w najbliższych latach przeczytamy doniesienia o osobach trafionych kosmicznymi śmieciami. Aktualizacja (17.05.2019): start został przełożony do przyszłego tygodnia. « powrót do artykułu
  6. Chińska misja Chang'e-4, która wylądowała po niewidocznej stronie Księżyca, prawdopodobnie znalazła materiały pochodzący z płaszcza Srebrnego Globu. Ich badanie może dać nam lepszy pogląd o budowie naturalnego satelity Ziemi. Chang'e-4 jest pierwszą w historii misją księżycową, która wylądowała po stronie niewidocznej z Ziemi. Na Księżyc trafiły lądownik oraz łazik Yutu-2. I to właśnie dzięki obserwacjom dokonanym przez łazik zauważono oliwiny i pirokseny mogące pochodzić z płaszcza. Obecnie obowiązujące teorie mówią, że Księżyc, podobnie jak inne wewnętrzne ciała Układu Słonecznego, przeszedł przez fazę oceanu magmy. Gdy ocean ten stygł na jego dnie krystalizowały się gęstsze minerały, takie jak oliwiny i pirokseny, które zawierają dużo magnezu i żelaza. Gdy 3/4 oceanu uległo już krystalizacji, na jego powierzchni pływały bogate w wapń lżejsze materiały, które utworzyły skorupę. W końcu pod skrystalizowaną skorupą doszło do ostatecznej krystalizacji pozostałych minerałów. W ten sposób powstały warstwy tworzące Księżyc. Dotychczasowe badania i obserwacje potwierdzały ten stosunkowo prosty model budowy. Mimo regionalnych różnic w budowie skorupy, wciąż nie mamy zbyt wielu danych dotyczących składu i budowy płaszcza Księżyca. Co interesujące, ani amerykański program Apollo, ani radziecki Luna nie dostarczyły próbek płaszcza. W maju 2018 roku Chiny wystrzeliły satelitę komunikacyjnego Queqiao, który zapewnił komunikację z niewidoczną stroną Księżyca. Dzięki niemu możliwe stało się wysłanie Chang'e-4. Najstarsza i największa struktura geologiczna Księżyca, liczący 2500 kilometrów średnicy Basen Biegun Południowy - Aitken, znajduje się po niewidocznej stronie Księżyca. Z badań przeprowadzonych przez amerykańską misję GRAIL wiemy,że prawdopodobnie jest to krater uderzeniowy, w kolizja, w wyniku której powstał mogła spenetrować płaszcz i rozrzucić pochodzący zeń materiał po powierzchni. Dlatego też naukowcy od dawna myśleli o zbadaniu Basenu Biegun Południowy - Aitken na miejscu. Misja Chang'e-4 wylądowała w 186-kilometrowym Kraterze Von Karmana, który znajduje się na dnie Basenu Biegun Południowy - Aitken. Teraz chińscy naukowcy informują o zidentyfikowaniu w pobliżu miejsca lądowania materiałów, które znacząco różnią się od tych dotychczas znalezionych. Identyfikacji dokonano za pomocą badań spektroskopowych odbijanego światła. Wydaje się, że obserwowany materiał składa się głównie z oliwinów i piroksenu. Chińczycy sugerują, że mogą one pochodzić z płaszcza, a na powierzchnię wydostały się w wyniku uderzenia, które stworzyło pobliski 72-kilometrowy Krater Finsen. Metody, których użyli Chińcycy są dobrze dobrane i bardzo precyzyjne. Jednak szczegółowe określenie składu obserwowanego materiału nie jest łatwe ze względu na złożoność tego typu badań i nakładanie się spektrum różnych materiałów. Bardziej precyzyjne określenie składu będzie wymagało  modelowania i określenia rozkładu poszczególnych ziaren. Ponadto w ramach przyszłych badań Chińczycy powinni też określić skład pobliskich skał, co pozwoli na opisanie kontekstu geologicznego, w jakim występuje wspomniany wcześniej materiał. Wyniki tych badań mogą wpłynąć na interpretacje obserwacji spektralnych. Nie można bowiem wykluczyć, że Yutu-2 nie obserwuje materiału z płaszcza, a mamy do czynienia z materiałem, który powstał w wyniku kolizji jaka stworzyła Basen Biegun Południowy - Aitken. Nie można wykluczyć, że w wyniki potężnego uderzenia doszło do roztopienia olbrzymiej ilości materiału i teraz tworzy od odmienną, grubą na dziesiątki kilometrów warstwę. Możliw jest też,że już po uformowaniu się krateru Basen Biegun Południowy - Aitken doszło do wypływu lawy, a materiał ten został przykryty materiałem z uderzeń formujących kratery. Jeśli jednak Chińczycy rzeczywiście trafili na materiał z płaszcza, będzie to miało duże znaczenie dla poznania budowy Księżyca. Z danych tego typu można bowiem wywnioskować głębokość oceanu magmy, tempo stygnięcia czy tempo ewolucji. To również pozwoli lepiej zrozumieć proces formowania się i ewolucji wnętrz planet skalistych. Chiny już wcześniej zapowiedziały wysłanie misji Chang'e-5, której celem będzie zebranie próbek i przywiezienie ich na Ziemię. « powrót do artykułu
  7. Na horyzoncie pojawiły się nowe możliwości zapobiegania chorobie Alzheimera (ChA). Badacze zidentyfikowali bowiem związki z ambrozji bylicolistnej (Ambrosia artemisiifolia), które pomagają neuronom przeżyć w obecności beta-amyloidu. A. artemisiifolia jest rośliną inwazyjną. Pochodzi z Ameryki Północnej, lecz obecnie ma kosmopolityczny zasięg. Jej pyłek jest silnym alergenem. Blaszki beta-amyloidu są neurotoksyczne. Pięć leków zatwierdzonych do terapii ChA tylko opóźnia rozwój choroby. Nic więc dziwnego, że naukowcy nie ustają w poszukiwaniu nowych, skuteczniejszych, metod terapii/zapobiegania. Won Keun Oh z Seulskiego Uniwersytetu Narodowego analizował 300 ekstraktów roślinnych pod kątem aktywności anty-ChA. Wtedy właśnie Koreańczycy natknęli się na ambrozję bylicolistną. Postanowili wyizolować i scharakteryzować strukturę związków z A. artemisiifolia, które odpowiadają za zaobserwowaną aktywność neuroprotekcyjną. Z całych roślin wyizolowano 14 związków, które wydawały się chronić neurony przed toksycznością beta-amyloidu. Ich budowę określono m.in. za pomocą spektrometrii mas i spektroskopii magnetycznego rezonansu jądrowego. Siedem z nich, w tym terpenoidy i koniugaty spermidyny, opisano już wcześniej, pozostałe to całkowicie nowe terpenoidy. Gdy 2 najbardziej aktywne nowe związki dodano do szalek, w obecności beta-amyloidu przeżyło ok. 20% więcej komórek (w porównaniu do sytuacji, kiedy nie stosowano żadnej interwencji). « powrót do artykułu
  8. Ślady dłoni i stóp pozostawione ok. 14 tys. lat temu w glinie na dnie jaskini Bàsura we Włoszech pokazały, w jaki sposób ludzie z górnego paleolitu eksplorowali ciemne i potencjalnie niebezpieczne systemy jaskiniowe. Analiza zademonstrowała, że pełzali niskim tunelem, oświetlając sobie drogę płonącym drewnem. Zamierzali się przedostać do innej części jaskini. Naukowcy znaleźli co najmniej 180 odcisków dłoni i stóp. Grupa, która je pozostawiła, składała się z 5 osób: 2 dorosłych, 11-latka oraz 6- i 3-latka. [...] Chcieliśmy się dowiedzieć, jak prehistoryczni ludzie eksplorowali fascynujący system jaskiniowy. Zależało nam na ustaleniu, ilu ludzi weszło do jaskini, czy eksplorowali pojedynczo, czy jako grupa, w jakim byli wieku, jakiej płci i jaką drogę obrali - opowiada dr Marco Romano z Wits University w Johannesburgu w RPA. Ślady analizowano za pomocą oprogramowania i modelowania 3D. Naukowcy posłużyli się też różnymi metodami datowania. Łącznie pozwoliły nam one stworzyć narrację o tym, co się wtedy działo. Naukowcy nie sądzą, że chodziło wyłącznie o przetrwanie (poszukiwanie pokarmu). Wydaje się, że niektóre ślady dłoni powstały bardziej celowo niż inne, co sugeruje aktywności symboliczne lub społeczne, np. zabawę. Skamieniałe ślady ludzi i zwierząt z jaskini Bàsura są znane od lat 50. XX w. Pierwsze badania prowadziła Virginia Chiappella. Obecne studium odbyło się pod egidą Biura Dziedzictwa Archeologicznego Ligurii. Wzięli w nim udział specjaliści z Włoch, Argentyny i RPA. Naukowcy podkreślają, że ich ustalenia wskazują, że w górnym paleolicie dzieci były aktywnymi członkami grupy nawet podczas niebezpiecznych przedsięwzięć.   « powrót do artykułu
  9. Chińscy naukowcy opracowali hydrożel, który skutecznie hamuje krwawienie z przebitej tętnicy. Na łamach Nature Communications opisano proces pozyskania hydrożelu oraz jego testy na zwierzętach. Niekontrolowane krwawienie jest niebezpieczną sytuacją zarówno w czasie operacji, jak i po doznaniu urazu. W większości przypadków jest ono wynikiem uszkodzenia głównej tętnicy albo jakiegoś narządu, np. wątroby. By ofiara nie zmarła, konieczne jest natychmiastowe działanie. Obecne leczenie polega na założeniu zacisku, a następnie szwów. W przeszłości naukowcy próbowali opracować kleje do takich ran, ale nie sprawowały się one tak dobrze, jak oczekiwano: albo były wyprodukowane z toksycznych materiałów, albo nie wytrzymywały wysokiego ciśnienia cieczy w krwiobiegu. Chińczycy uzyskali jednak ostatnio hydrożel, który rozwiązuje oba wymienione problemy. W założeniu hydrożel miał w jak największym stopniu przypominać budowę ludzkiej tkanki łącznej. Po oświetleniu ultrafioletem (UV) gęstnieje, przywierając do rany (w ten sposób zapobiega wypływaniu krwi). Wszystko to dzieje się w ciągu zaledwie 20-30 sekund. Naukowcy podkreślają, że nowy materiał wytrzymuje ciśnienie do 290 mmHg, a więc o wiele wyższe od normalnego. Hydrożel testowano na przebitej tętnicy szyjnej świni. Okazało się, że nie tylko zamknął on ranę, ale i umożliwił wygojenie rany. Testy przeprowadzone po 2 tygodniach wykazały niewielką martwicę i stan zapalny albo całkowity ich brak. Biokompatybilny materiał rozkładał się w organizmie, nie powodując skutków ubocznych. Hydrożel przetestowano także na króliku. Tutaj za jego pomocą naprawiono tętnicę udową oraz uszkodzenie wątroby. Naukowcy podkreślają, że przed testami na ludziach trzeba lepiej ocenić bezpieczeństwo nowego materiału.   « powrót do artykułu
  10. Firma Hyper Poland, która chce wprowadzić do komercyjnego użytku kolej magnetyczną, mogącą jeździć z prędkością 300 km/h, ma zapewnione finansowanie budowy 500–metrowego toru testowego w Żmigrodzie – poinformowała PAP Natalia Sikorska z Hyper Poland. Testowy tor o długości 500 metrów powstanie w Żmigrodzie koło Wrocławia na terenie należącym do Instytutu Kolejnictwa. (...) Możemy śmiało powiedzieć, że nasze plany, czyli budowa toru w skali 1 do 5 i budowa toru w skali 1 do 1 o długości 500 metrów, mają zapewnione finansowanie – powiedziała PAP Sikorska. Na tym torze pojazd typu magrail będzie mógł się rozpędzić do 300 km/h. Sikorska dodała, że spółka Hyper Poland pozyskała niedawno dofinansowanie w wysokości 16,5 mln zł z Narodowego Centrum Badań i Rozwoju w konkursie; pieniądze zostaną przeznaczone na jej rozwój. Dodatkowo firma zebrała ponad 1 mln zł w kampanii crowdfundingu udziałowego na brytyjskiej platformie Seedrs. Pieniądze z NCBR–u zostaną przeznaczone na prace badawczo–rozwojowe nad napędem i zawieszeniem do wszystkich trzech etapów rozwoju technologii hyperloop. Środki zostaną wykorzystane do zbudowania stanowisk testowych, do badania napędu liniowego i lewitacji magnetycznej. Hyper Poland jako jedyna firma na świecie opracowała sposób na to, jak przystosować istniejące, zwykłe tory kolejowe do potrzeb lewitujących, magnetycznych pojazdów kolejowych. Opracowana w Polsce technologia ma pozwolić na to, aby w istniejących już korytarzach kolejowych zamiennie poruszały się zwykłe pociągi oraz superszybkie pociągi magnetyczne. Takie wdrożenie technologii hyperloop ma być kilkukrotnie tańsze niż w pierwotnym pomyśle, zakładającym budowę od zera infrastruktury próżniowej. « powrót do artykułu
  11. Wielokrotnie nagradzany polski robot edukacyjny Photon będzie sprzedawany w Ameryce Północnej i Chinach - start-up założony przez absolwentów Politechniki Białostockiej podpisał właśnie umowę z amerykańskim dystrybutorem, który zajmuje się wprowadzaniem innowacyjnych rozwiązań w edukacji. Photon to interaktywny, zintegrowany ze smartfonem lub tabletem robot, który "rozwija się razem z dzieckiem"; poprzez zabawę i rywalizację pomaga najmłodszym m.in. w nauce logicznego myślenia i podstaw programowania. Dzieci - rozwiązując zadania - otrzymują specjalne punkty, dzięki którym później mogą odblokować nowe możliwości robota, a inne ulepszać. W ten sposób Photon rozwija się razem z dzieckiem. Aby wkroczyć z Photonem na rynek, jego twórcy założyli firmę Photon Entertainment. Pierwsze pieniądze pochodziły ze zbiórki crowdfundingowej, potem pojawili się też inwestorzy instytucjonalni. Produkcja Photona w Białymstoku ruszyła we wrześniu 2017 roku; w ub. roku 11 tys. takich robotów edukacyjnych trafiło do 2 tys. szkół i przedszkoli. Jak poinformował we wtorek jeden z twórców i szef start-upu Marcin Joka, amerykańska firma Eduscape, która zajmuje się wprowadzaniem innowacyjnych rozwiązań w edukacji, nabyła prawa do sprzedaży Photona na terenie Stanów Zjednoczonych, Kanady oraz Chin. Eduscape podjął się wprowadzenia tego polskiego robota edukacyjnego m.in. do amerykańskich szkół. To bardzo ważny krok, nie tylko dla naszej organizacji, ale dla całej edukacji. Photon sprawdził się w Europie, Australii i Azji Południowo-Wschodniej. Udowodnił, że szkoły mogą wdrażać STEM (science, technology, engineering, mathematics) znacznie szybciej, a uczniowie osiągać lepsze wyniki - dodał Michał Grześ, współzałożyciel i członek zarządu firmy. Eduscape ma siedzibę w New Jersey, jest m.in. partnerem Google for Education ze specjalnością edukacyjną. Cytowany w przekazanym PAP komunikacie członek zarządu Eduscape Alex Urrea podkreślił, że firma chce przedstawić szkołom rozwiązanie najwyższej jakości, a celem jest ułatwienie nauki pisania kodów. Pilotażowa współpraca polskiego start-upu z Eduscape trwała przez kilka miesięcy. W tym czasie opracowano Akademię Photona, czyli kompleksowy program rozwoju zawodowego nauczycieli informatyki, wspierający integrację Photona w ramach programu nauczania na wszystkich poziomach edukacji. Program oferuje zarówno internetowe kursy przygotowawcze, jak i praktyczne. « powrót do artykułu
  12. W USA przeprowadzono pierwszą na świecie wymienną transplantację nieidentycznych narządów od żywych dawców. Erosalyn Deveza cierpiała na niewydolność nerek. Była z tego powodu dializowana. Nerkę chciała oddać matce córka - Aliana - jednak lekarze odradzali jej to, mówiąc, że może się u niej rozwinąć podobna choroba i sama będzie kiedyś potrzebować przeszczepu. Gdy patrzyłam, przez co przechodzi mama, pękało mi serce. Musiałam pomóc - podkreśla Aliana. Opis przeszczepu, do którego udało jej się przy pomocy lekarzy doprowadzić, zamieszczono wraz ze studium przypadku w American Journal of Transplantation. Przyglądając się przeszczepom łańcuchowym, Aliana Deveza wpadła na trop badania, którego autorzy opisywali ideę wymiany nerki za drugi organ pobierany od żywego dawcy - wątrobę. Ludzie mogą oddać do 60% wątroby. Ponieważ ulega ona regeneracji, i dawca, i biorca odtwarzają pełnowymiarowe narządy. Pani Deveza opowiada, że sugerowała takie rozwiązanie wielu szpitalom. Nic to jednak nie dało. Nie wiedzieli, o czym mówię. Nie mieli pojęcia, na jaki oddział mnie kierować. Pewnego razu trafiłam nawet do kostnicy. Wszystko się zmieniło, gdy spotkała Johna Robertsa, chirurga z Uniwersytetu Kalifornijskiego w San Diego, który dostrzegł i docenił olbrzymie możliwości tkwiące w takim schemacie. Listy oczekujących na przeszczep są długie, a narządów od zmarłych ciągle brakuje... Ocena stanu zdrowia Devezy pokazała, że może ona zostać dawczynią części wątroby. Po kolejnych 18 miesiącach znaleziono Annie Simmons z Boise w Idaho, która ze względów immunologicznych nie mogła zostać dawczynią dla swojej chorej na wątrobę siostry. Wtedy pojawił się plan: Aliana odda połowę wątroby siostrze Annie, zaś Annie przekaże nerkę matce Aliany. Wniosek rozpatrywała szpitalna komisja etyczna. Z różnych względów należało rozważyć, czy wymiana jest sprawiedliwa. Teoretycznie wątroba ma bowiem większą wartość niż nerka, gdyż cierpiący na niewydolność nerek pacjenci mogą być utrzymywani przy życiu dzięki dializom, a dla wątroby nie ma odpowiednika tej procedury. Oddanie wątroby wiąże się też z wyższym ryzykiem powikłań. Deveza nie zastanawiała się jednak ani przez chwilę: Traciłam nadzieję i naprawdę chciałam coś zrobić. Po uzyskaniu pozwolenia od komisji wszystkie 4 operacje przeprowadzono tego samego dnia. Później przez kilka tygodni Deveza czuła ogromne zmęczenie. Nie była jednak zaskoczona, bo lekarze uprzedzili, że tak może być, bo organizm wkłada całą energię w regenerację wątroby. USG wykonane po 2 miesiącach pokazało, że wątroba Aliany prawie wróciła do pierwotnych rozmiarów. Roberts dodaje, że regeneracja zaczyna się już prawdopodobnie w kilka godzin [od pobrania fragmentu do przeszczepu]. Zespół przeprowadzający przełomową procedurę ma nadzieję, że kobiety, które sprawiły, że w ogóle była ona możliwa, zainspirują do podobnych czynów kolejnych ludzi. Roberts wylicza, że w USA bezpośrednie wymiany angażujące dwóch dawców pozwolą na 30 dodatkowych przeszczepów wątroby od żywego dawcy rocznie (a to aż 10% wzrost). « powrót do artykułu
  13. W książce "Sztuczna inteligencja. Co każdy powinien wiedzieć" Jerry Kaplan analizuje złożone problemy dotyczące sztucznej inteligencji, posługując się jasnym, nietechnicznym językiem. Zastanawia się: • Czy maszyny naprawdę mogą przewyższyć ludzką inteligencję? • Jak sztuczna inteligencja wpłynie na nasze miejsca pracy i dochody? • Czy robot może świadomie popełnić przestępstwo? • Czy maszyna może być świadoma albo posiadać wolną wolę? Wiele systemów sztucznej inteligencji uczy się teraz z doświadczenia i podejmuje działania wykraczające poza zakres tego, do czego zostały pierwotnie zaprogramowane. W związku z tym rodzą się kłopotliwe pytania, na które społeczeństwo musi znaleźć odpowiedź. • Czy naszemu osobistemu robotowi należy pozwolić stać za nas w kolejce albo zmusić go do zeznawania przeciwko nam w sądzie? • Czy tylko my ponosimy wyłączną odpowiedzialność za wszystkie jego działania? • Jeśli załadowanie umysłu do maszyny okaże się możliwe, czy to nadal będziemy my? Odpowiedzi mogą zaskakiwać.
  14. Pracownicy salonów stylizacji paznokci stale stykają się z zanieczyszczeniami powietrza, np. formaldehydem czy benzenem. Z tego powodu naukowcy z Uniwersytetu Kolorado w Boulder porównują ich do zatrudnionych w rafineriach ropy naftowej czy warsztatach samochodowych. W ramach badania monitorowano poziom lotnych związków organicznych (ang. volatile organic compound, VOC) w 6 salonach stylizacji paznokci z Kolorado. Akademicy podkreślają, że zwykle manikiurzyści/pedikiurzyści pracują wiele godzin i często uskarżają się na bóle głowy, problemy związane z układem oddechowym i podrażnienie skóry. Studium zapewniło jedne z pierwszych twardych dowodów, że takie środowiska są niebezpieczne dla pracowników i że dla ich dobra trzeba wprowadzić odpowiednie uregulowania prawne - podkreśla Lupita Montoya. Montoya mniej więcej od dekady interesuje się lotnymi zanieczyszczeniami w salonach stylizacji paznokci. Wspomina wizytę sprzed lat, podczas której uderzył ją nieprzyjemny zapach preparatów używanych do manikiuru żelowego i akrylowego. Specjalistka zaczęła podejrzewać, że w tak słabo wentylowanych, zamkniętych przestrzeniach jakość powietrza nie może być dobra. Choć zidentyfikowano sporo VOC z produktów do paznokci, o wiele mniej badań poświęcono zdrowiu osób, które stykają się z nimi dzień w dzień. Nasunęły się więc pytania, co znajduje się w powietrzu w salonie, w jakim stężeniu i czy da się te związki jakoś usunąć? Montoya już wcześniej próbowała przeprowadzić badania terenowe, ale z obawy przed konsekwencjami salony odmawiały udziału. W 2017 r. studenci użyli swoich osobistych kontaktów, by zapewnić dostęp do 6 gabinetów. Pod warunkiem zachowania anonimowości właściciele zgodzili się na 18-miesięczny monitoring. Naukowcy zamontowali aparaturę do monitorowania gazów BTEX (benzenu, toluenu, etylobenzenu i ksylenu) oraz formaldehydu. We wszystkich 6 lokalach stwierdzono wyższe niż oczekiwano poziomy benzenu, który wcześniej powiązano z białaczką. Ekipa poprosiła osoby zatrudnione w salonach o wypełnienie kwestionariusza dot. praktyk pracowniczych i związanych z bezpieczeństwem oraz objawów zdrowotnych. Okazało się, że technicy pracowali średnio 52,5 godziny tygodniowo, a niektórzy nawet 80 godzin na tydzień. Siedemdziesiąt procent pracowników wspominało o co najmniej 1 objawie. Do często wymienianych należały ból głowy, a także podrażnienie skóry i oczu. Okazało się, że w niektórych salonach ryzyko wystąpienia nowotworu na jakimś etapie życia było nawet 100-krotnie wyższe niż wg wskaźników podawanych przez amerykańską Agencję Ochrony Środowiska (EPA). Klienci salonów nie są jednak tak zagrożeni, jak pracownicy. Obserwowane skażenie wpłynie negatywnie zapewne tylko na najbardziej podatnych, np. osoby z ciężką astmą czy alergią. To zależy od czasu spędzanego w danym środowisku, a klienci są tu [przecież] tylko przez chwilę. Jak usunąć szkodliwe VOC? Odpowiedzią mogą być materiały opracowywane przez inżynierów Montoi. W 2016 r. doktorant Aaron Lamplugh zaczął pracę nad metodami pasywnego zmniejszania stężenia VOC za pomocą tanich materiałów absorbujących. Chodzi np. o poddawane obróbce cieplnej (wygrzewaniu w wysokiej temperaturze przy ograniczonym dostępie powietrza) drewno czy węgiel, które wykazują duże powinowactwo do cząsteczek organicznych takich jak BTEX. Dyfuzja pasywna jest skuteczna, ale zajmuje dużo czasu. O wiele lepszym rozwiązaniem wydaje się więc kierowanie strumieni zanieczyszczonego powietrza na pochłaniający materiał. W kontrolowanych warunkach laboratoryjnych obserwowaliśmy wysoki, blisko 100%, wskaźnik eliminacji VOC. Optymalizujemy tę metodę pod kątem zastosowań w terenie, gdzie panują bardziej nieprzewidywalne warunki - wyjaśnia Lamplugh. W zeszłym roku Lamplugh nawiązał współpracę z ceramiczką Camilą Friedman-Gerlicz, która zmienia węgiel aktywowany w ozdoby/dzieła sztuki. Mogą one cieszyć oko i jednocześnie oczyszczać powietrze. Naukowcy uważają, że z rogów stolika, przy którym ktoś pracuje, strumienie zanieczyszczonego powietrza można by kierować wprost na węglową ozdobę. « powrót do artykułu
  15. Wiele owadów to świetni lotnicy. Jednym z elementów, które im to umożliwiają jest posiadanie czterech skrzydeł. Inżynierowie i naukowcy od wielu lat próbują zbudować miniaturowe roboty wyposażone w cztery skrzydła. Przekonali się, jak trudno to osiągnąć. Jedną z najmniejszych stworzonych dotychczas latających maszyn jest RoboBee z 2013 roku. Urządzenie wyposażono w dwa skrzydła, każde niezależnie napędzane własnym aktuatorem. Zbudowanie tak małego robota było możliwe dzięki miniaturyzacji aktuatorów, z których każdy ważył zaledwie 25 gramów. Teoretycznie RoboBee powinien latać w sposób kontrolowany, jednak w praktyce dwa skrzydła nie pozwalały na precyzyjne sterowanie urządzeniem. Potrzebne były jeszcze dwa dodatkowe skrzydła, ale to uczyniłoby całość zbyt ciężką. Teraz Xiufeng Yang i jego koledzy z University of Southern California w Los Angeles stworzyli aktuatory, które są dwukrotnie lżejsze od tych z RoboBee. Wykorzystali je do stworzenia robota Bee+, który ma cztery skrzydła, a każde z nich o długości 33 milimetrów. Maszyna potrafi latać, lądować, omijać przeszkody i lecieć założoną trasą. Aktuatory RoboBee ważyły łącznie 50 gramów, stanowiły więc znaczący odsetek maszy całego urządzenia, które ważyło 75 gramów. W Bee+ wykorzystano inną architekturę aktuatorów. Zamiast dwóch warstw materiału piezoelektrycznego użyto jednej połączonej z warstwą pasywną. Mamy tu prostszą strukturę, którą łatwiej złożyć w maszynę. Ale największym osiągnięciem jest fakt, że cztery aktuatory ważą zaledwie 56 gramów. Jako, że Bee+ waży 95 gramów, to obciążenie aktuatorami jest stosunkowo mniejsze niż w RoboBee. To zaś zmniejsza siły działające na aktuatory i wydłuża ich czas działania. Jedną z największych wad Bee+ i innych miniaturowych robotów latających jest fakt, że muszą być zasilane przez kabel. Obecna technologia nie pozwala na zastosowanie pokładowego źródła zasilania pozwalającego na lot o satysfakcjonującej długości. Niektóre grupy naukowe demonstrowały miniaturowe roboty latające zasilane zdalnie za pomocą lasera. Pokładowe źródło energii to wciąż dla inżynierów poważne wyzwanie. Mimo że Bee+ to duże osiągnięcie inżynierii, trzeba przyznać, że pozostajemy daleko w tyle za naturą. Przeciętny trzmiel waży 200-krotnie mniej, lata znacznie sprawniej i zasila sam siebie.   « powrót do artykułu
  16. Regularne zażywanie suplementów glukozaminy może się wiązać z obniżonym ryzykiem zdarzeń sercowo-naczyniowych, np. udarów. By przetestować tę teorię, potrzebne są jednak testy kliniczne. Glukozamina to popularny suplement diety, wykorzystywany przy wspomaganiu leczenia choroby zwyrodnieniowej stawów. Choć skuteczność w przypadku bólu stawów jest dyskusyjna, nowe dowody sugerują, że glukozamina może pomóc w zapobieganiu chorobom sercowo-naczyniowym (ChSN) i obniżaniu śmiertelności. Prof. Lu Qi z Tulane University przeanalizował dane z UK Biobank - dużego badania populacyjnego z Wielkiej Brytanii. Zespół Qi przeanalizował przypadki 466.039 ochotników bez choroby sercowo-naczyniowej, którzy wypełnili kwestionariusz dot. zażywania suplementów, w tym glukozaminy. Do monitorowania zdarzeń sercowo-naczyniowych, w tym udaru, śmierci czy choroby niedokrwiennej serca, w średnio 7-letnim okresie wykorzystano akty zgonu oraz dokumentację szpitalną. Okazało się, że na początku studium do zażywania glukozaminy przyznało się 19,3% badanych. Naukowcy stwierdzili, że jej przyjmowanie wiązało się z 15% niższym ryzykiem zdarzeń sercowo-naczyniowych ogółem, a także z 9-22% niższym ryzykiem choroby niedokrwiennej serca, udaru i zgonu (porównań dokonywano do osób niezażywających tego suplementu). Korelacja utrzymywała się nawet po wzięciu poprawki na tradycyjne czynniki ryzyka, np. wiek, płeć, wskaźnik masy ciała, pochodzenie etniczne, styl życia, dietę oraz przyjmowanie leki i suplementy. Autorzy publikacji z British Medical Journal uważają, że zaobserwowane zjawisko da się wyjaśnić na kilka sposobów. Regularne zażywanie glukozaminy powiązano bowiem np. z obniżeniem poziomu białka C-reaktywnego (CRP), które jest markerem stanu zapalnego. To może wyjaśniać silniejszy wpływ glukozaminy na ryzyko sercowo-naczyniowe u palaczy, u których występuje zarówno silniejszy stan zapalny, jak i większe zagrożenie chorobami serca. Poza tym glukozamina może naśladować dietę niskowęglowodanową, która ujemnie koreluje z rozwojem ChSN. Naukowcy podkreślają, że choć próba była duża, badanie miało charakter obserwacyjny. Nie może więc wskazać na związek przyczynowo-skutkowy, a jedynie na korelację. Do innych ograniczeń należą brak danych na temat dawki, okresu suplementacji oraz skutków ubocznych zażywania glukozaminy. Akademicy dodają, że zażywanie glukozaminy może też być oznaką zdrowego stylu życia, ale to mało prawdopodobne, by to właśnie jemu należało przypisywać zaobserwowane korzyści. « powrót do artykułu
  17. Eksperyment przeprowadzony na Heriot-Watt University w Edynburgu dowodzi, że obiektywna rzeczywistość nie istnieje. Zespół naukowy prowadzony przez Massimiliano Poiettiego jako pierwszy w historii przeprowadził eksperyment zwany Przyjacielem Wignera. Ten eksperyment myślowy został zaproponowany w 1961 roku przez Eugene'a Wignera. Naukowcy przez kilkadziesiąt lat nie byli w stanie go przeprowadzić, jednak w ubiegłym roku uczeni z Edynburga stwierdzili, że ostatnie postępy w technologiach kwantowych są tak duże, że można pokusić się o próbę eksperymentalnego zweryfikowania Przyjaciela Wignera. Eksperyment Wignera jest bardzo prosty w założeniach. Rozpoczynamy od pojedynczego fotonu, który, po dokonaniu pomiaru, będzie miał polaryzację poziomą lub pionową. Jednak przed pomiarem, zgodnie z zasadami mechaniki kwantowej, foton istnieje w superpozycji, czyli ma jednocześnie oba rodzaje polaryzacji. Wigner zaproponował istnienie przyjaciela, który w laboratorium dokonuje pomiaru fotonu i zachowuje informację o jego polaryzacji. Wigner obserwuje wszystko z daleka. Jako, że nie ma informacji o wynikach pomiaru, musi założyć, że wynik pomiaru to superpozycja wszystkich możliwych wyników. Z punktu widzenia Wignera, superpozycja istnieje. A jeśli tak, to pomiar nie miał miejsca. Jednak dla jego przyjaciela foton ma jedną konkretną polaryzację. Może on nawet poinformować Wignera, że dokonał pomiaru. O ile jednak nie poinformuje o jego wyniku, dla Wignera foton będzie w superpozycji. Mamy więc tutaj do czynienia z dwiema różnymi rzeczywistościami. To zaś poddaje w wątpliwość obiektywizm faktów z punktu widzenia różnych obserwatorów, mówi Proietti. W ubiegłym roku Caslav Brukner z Uniwersytetu w Wiedniu wpadł na pomysł, w jaki sposób można by przeprowadzić eksperyment Przyjaciela Wignera, używając wtym celu wielu splątanych cząstek. Przełomowy eksperyment został wykonany przez Proiettiego i jego zespół. Podczas wysoce zaawansowanego eksperymentu, w którym wykorzystaliśmy 6 fotonów, zrealizowaliśmy scenariusz Przyjaciela Wignera, mówi Proietti. Naukowcy wykorzystali 6 splątanych fotonów do stworzenia dwóch odmiennych rzeczywistości. Jedna reprezentowała Wingera, druga jego przyjaciela. Przyjaciel mierzy polaryzację fotonu i zapisuje wynik. Później Wigner dokonuje pomiaru, by stwierdzić, czy wcześniejszy pomiar i foton są w superpozycji. Eksperyment nie dał jednoznacznych wyników. Okazało się, że obie rzeczywistości, ta przyjaciela i ta Wignera mogą istnieć jednocześnie, mimo że dają sprzeczne wyniki. Przeprowadzony w Edynburgu eksperyment każe zadać pytania o naturę rzeczywistości. Pomysł, że obserwatorzy mogą pogodzić uzyskane przez siebie wyniki opiera się na kilku założeniach. Przede wszystkim na tym, że rzeczywistość obiektywna istnieje i obserwatorzy mogą się co do niej zgodzić. Jednak istnieją też inne założenia. Na przykład takiego, że obserwatorzy mogą dokonywać dowolnych obserwacji, czy też, że wybory jednego obserwatora nie wpływają na wybory drugiego. Jeśli istnieje obiektywna rzeczywistość, to wszystkie te założenia można utrzymać. Jednak eksperyment Proiettiego poddaje w wątpliwość istnienie obiektywnej rzeczywistości. Oznacza to, że przynajmniej jedno z założeń – że istnieje rzeczywistość, co do której możemy się umówić, że mamy wolny wybór lub też, że wybory jednego obserwatora nie wpływają na wybory drugiego – jest nieprawdziwe. Oczywiście możemy też założyć, że w samym eksperymencie istnieje jakaś dziura, coś czego naukowcy nie zauważyli, a co wpływa na jego wynik. Fizycy od lat próbują odnaleźć i zamknąć takie dziury w podobnych eksperymentach, ale przyznają, że być może nigdy nie będzie możliwe, by je wszystkie usunąć. Tak czy inaczej badania Proiettiego mają duże znaczenie dla nauki. Metoda naukowa bazuje na faktach ustalanych przez powtarzalne eksperymenty, których wyniki zostały szeroko zaakceptowane, niezależnie od obserwatora, mówi Proietti. Jednak jego własny eksperyment wykazał, że różni obserwatorzy mogą doświadczać różnej rzeczywistości. Kolejnym logicznym etapem badań wydaje się projektowanie takich eksperymentów, które będą dawały coraz bardziej dziwne i coraz bardziej rozłączne wyniki dla różnych obserwatorów. « powrót do artykułu
  18. U kobiet stan zapalny zmniejsza reakcję mózgu na nagrodę. U mężczyzn efekt ten nie występuje. Autorzy artykułu z pisma Biological Psychiatry: Cognitive Neuroscience and Neuroimaging dodają, że obniżona aktywność mózgowego ośrodka nagrody jest oznaką anhedonii, jednego z objawów depresji. Polega ona na utracie zdolności odczuwania przyjemności i radości. U kobiet depresja jest diagnozowana 2-3-krotnie częściej. Nowe ustalenia mogą w pewnym stopniu wyjaśnić, skąd biorą się międzypłciowe różnice w tym zakresie. Nasze badanie jako pierwsze pokazuje, że w obecności stanu zapalnego istnieją międzypłciowe różnice w nerwowej wrażliwości na nagrodę [...] - podkreśla dr Naomi Eisenberger z Uniwersytetu Kalifornijskiego w Los Angeles. W eksperymencie wzięło udział 115 osób, w tym 69 kobiet. Wylosowano je do 2 grup, którym podawano placebo lub niską dawkę wywołującej stan zapalny endotoksyny. Dwie godziny później ochotnicy wykonywali złożone zadanie (grali, by zdobyć nagrodę pieniężną) w skanerze do fMRI. Naukowcy monitorowali aktywność brzusznego prążkowia (ang. ventral striatum, VS), które należy do tzw. układu nagrody. Okazało się, że u kobiet endotoksyna prowadziła do obniżonej aktywności VS podczas przewidywania nagrody. Zjawiska nie zaobserwowano u mężczyzn. U kobiet, ale nie u mężczyzn, z grupy dostającej endotoksynę spadki aktywności VS podczas przewidywania nagrody wiązały się ze wzrostem stanu zapalnego. To sugeruje, że przez zmniejszenie wrażliwości na nagrodę kobiety z przewlekłym stanem zapalnym mogą być szczególnie podatne na wystąpienie depresji. Klinicyści zajmujący się kobietami z zaburzeniami zapalnymi powinni [więc] bacznie monitorować pacjentki pod kątem możliwych początków objawów depresyjnych - zaznacza dr Mona Moieni. « powrót do artykułu
  19. W obserwatorium na Mauna Loa zanotowano najwyższe stężenie CO2 w historii pomiarów. W niedzielę rano urządzenia zarejestrowały stężenie dwutlenku węgla w atmosferze rzędu 415,39 ppm (części na milion). To jednocześnie pierwszy raz, gdy dzienne stężenie przekroczyło 415 części na milion. Dokładnie rok wcześniej, 12 maja 2018 roku, urządzenia rejestrowały 411,92 ppm. Niemal równo sześć lat temu, 10 maja 2013 roku, informowaliśmy, że z nocy z 7 na 8 maja koncentracja CO2 po raz pierwszy przekroczyła granicę 400 ppm. Ostatni raz koncentracja CO2 powyżej 415 ppm występowała na Ziemi przed około 3 milionami lat. To pokazuje, że nawet nie zaczęliśmy chronić klimatu. Liczby z roku na rok są coraz wyższe, mówi Wolfgang Lucht z Poczdamskiego Instytutu Badań nad Wpływem Klimatu. Stacja pomiarowa na Mauna Loa jest najdłużej działającym stałym punktem pomiaru stężenia dwutlenku węgla w atmosferze. Na jej lokalizację wybrano położony na Hawajach szczyt, gdyż jest to najbardziej oddalony od emisji przemysłowej punkt na Ziemi. Jednocześnie, jako że mamy tu do czynienia z czynnym wulkanem, który sam też emituje CO2, pomiary uwzględniają ten fakt i gaz pochodzący z wulkanu nie jest liczony. Pomiary z poszczególnych dni mogą różnić się między sobą, gdyż w ich przypadku dużo zależy od warunków atmosferycznych i pory roku. W najbliższym czasie, w związku z tym, że na bardziej uprzemysłowionej półkuli północnej właśnie trwa wiosna, należy spodziewać się spadku stężenia dwutlenku węgla, gdyż będą go pochłaniały rośliny. Jednak widać, że stężenie gazu cieplarnianego ciągle rośnie. Specjaliści przypuszczają, że wzrost rok do roku wyniesie około 3 ppm, podczas gdy średnia z ostatnich lat to 2,5 ppm. Warto też zwrócić uwagę, jak zmieniały się dzienne rekordowe stężenia CO2 dla poszczególnych lat. W roku 2015 dniem, w którym zanotowano największe stężenie dwutlenku węgla był 13 kwietnia, kiedy wyniosło ono 404,84 ppm. W roku 2016 był to 9 kwietnia (409,44 ppm), w 2017 rekord padł 26 kwietnia (412,63 ppm), a w 2018 rekordowy był 14 maja (412,60 ppm). Tegoroczny rekord to 415,39 ppm. Pomiary dokonywane są w Mauna Loa Observatory na wysokości około 3400 metrów nad poziomem morza. W stacji badawczej prowadzone są dwa programy pomiarowe. Jeden, z którego dane prezentujemy i który trwa od końca lat 50., to program prowadzony przez Scripps Institute. Drugi, młodszy, to NOAA-ESRL za który odpowiada amerykańska Narodowa Administracja Oceaniczna i Atmosferyczna (NOAA). Ten drugi pokazuje zwykle dane o ułamki punktu (rzędu 0,06–0,15) niższe niż dane Scripps. Różnice wynikają z różnych metod statystycznych używanych przez obie instytucje i dowodzą wysokiej spójności i wiarygodności pomiarów. W 2015 roku podpisano Porozumienie Paryskie, którego celem jest niedopuszczenie, by średnie temperatury na Ziemi wzrosły bardziej niż o 2 stopnie powyżej poziomu sprzed rewolucji przemysłowej. Na razie na niewiele się ono zdało, gdyż od tamtej pory wszystkie kolejne lata trafiły do 5 najgorętszych lat w historii pomiarów. Przez całą swoją historię ludzkość żyła w chłodniejszym klimacie niż obecnie, mówi Lucht. Za każdym razem gdy uruchamiamy silnik, emitujemy CO2 i ten gaz musi gdzieś trafić. On nie znika w cudowny sposób. Pozostaje w atmosferze. Pomimo podpisania Porozumienia Paryskiego, pomimo tych wszystkich przemów i protestów wciąż nie widać, byśmy doprowadzili do zmiany trendu. Jestem na tyle stary, że pamiętam, gdy przekroczenie poziomu 400 ppm było wielkim newsem. Dwa lata temu po raz pierwszy przekroczyliśmy 410 ppm. A teraz mamy 415 ppm. To rośnie w coraz szybszym tempie, stwierdził Gernot Wagner z Uniwersytetu Harvarda. « powrót do artykułu
  20. Podczas badań na myszach stwierdzono, że mirabegron, lek na nadreaktywność pęcherza, może przyspieszać miażdżycę. Wg naukowców ze Szwecji i Chin, wyniki sugerują, że i u ludzi w pewnych przypadkach lek ten będzie zwiększać ryzyko chorób sercowo-naczyniowych, w tym udarów. Okazało się, że mirabegron, doustny agonista receptora b3, wpływa także na mysią tkankę tłuszczową; aktywuje brunatną tkankę tłuszczową (ang. brown adipose tissue, BAT) i uruchamia przekształcanie białej tkanki tłuszczowej (ang. white adipose tissue, WAT) w BAT, czyli brunatnienie. Zwierzętom aplikowano kliniczną dawkę mirabegronu. Autorzy artykułu z pisma PNAS wykazali, że w mysim modelu miażdżycy mirabegron przyspieszał wzrost blaszek. Były one także bardziej niestabilne. Podanie mirabegronu zwiększało poziom złego cholesterolu LDL i lipoproteiny bardzo małej gęstości (VLDL) w osoczu. Zmiany te były zależne od termogenezy (generowania ciepła) i lipolizy (rozkładu tłuszczu), które występowały po aktywacji BAT. Potwierdzono to za pomocą delecji genu termogeniny (UCP1), czyli białka występującego w wewnętrznej błonie mitochondriów tkanki tłuszczowej brunatnej, która całkowicie znosiła miażdżycę wywoływaną mirabegronem. Lek aplikowano gryzoniom poddanym rozbiciu jednego z dwóch genów (apolipoproteiny E lub receptora LDL): ApoE−/− lub Ldlr−/−. Pacjenci z chorobami sercowo-naczyniowymi czy miażdżycą powinni uważać, przyjmując mirabegron, ponieważ może on przyspieszać wzrost blaszek i zwiększać ich niestabilność. Ponieważ mirabegron podwyższa poziom LDL we krwi, szczególne podatne [na niekorzystne działanie] mogą być osoby z mutacjami, które utrudniają eliminowanie LDL - podkreśla Yihai Cao z Karolinska Institutet. Naukowcy dodają, że badania były prowadzone na myszach, nie można więc bezpośrednio przekładać uzyskanych wyników na ludzi. « powrót do artykułu
  21. Po raz pierwszy w historii zmierzono dokładność dwukubitowych operacji logicznych w krzemie. Dokonał tego zespół prof. Andrew Dzuraka z Uniwersytetu Nowej Południowej Walii (UNSW), który w 2015 jako pierwszy stworzył dwukubitową bramkę logiczną w krzemie. Wszystkie obliczenia kwantowe mogą składać się z jedno- i dwukubitowych operacji. To podstawowe budulce obliczeń kwantowych. Gdy je mamy, możemy wykonać dowolne obliczenia kwantowe, jednak precyzja obu tych rodzajów obliczeń musi być bardzo wysoka, wyjaśnia profesor Dzurak. Od czasu, gdy w 2015 roku zespół Dzuraka stworzył pierwszą dwukubitową bramkę logiczną umożliwiając w ten sposób prowadzenie obliczeń z użyciem dwóch kubitów, wiele zespołów naukowych zaprezentowało podobne konstrukcje. Jednak dotychczas nie była znana dokładność obliczeń dokonywanych za pomocą takich bramek Precyzja obliczeń to kluczowy parametr, który decyduje o tym, na ile dana technologia kwantowa może zostać zastosowana w praktyce. Potęgę obliczeń kwantowych można wykorzystać tylko wtdy, jeśli operacja na kubitach są niemal idealne, dopuszczalne są minimalne błędy, mówi doktor Henry Yang, współpracownik Dzuraka. Australijscy naukowcy opracowali test oparty na geometrii Clifforda i za jego pomocą ocenili wiarygodność dwukubitowej bramki logicznej na 98%. Osiągnęliśmy tak wysoką dokładność dzięki zidentyfikowaniu i wyeliminowaniu podstawowych źródeł błędów, poprawiając w ten sposób dokładność obliczeń do takiego stopnia, że zrandomizowany test o znaczącej dokładności – tutaj 50 operacji na bramce – może zostać przeprowadzony na naszym dwukubitowym urządzeniu, dodał doktorant Wister Huang, główny autor artykułu, który opublikowano na łamach Nature. Komputery kwantowe będą mogły rozwiązać problemy, z którymi klasyczne komputery nigdy nie będą w stanie sobie poradzić. Jednak większość tych zastosowań będzie wymagała użycia milionów kubitów, więc będziemy musieli korygować błędy kwantowe, nawet jeśli będą one niewielkie. Aby korekcja tych błędów byla możliwa, same kubity muszą być niezwykle dokładne. Dlatego też podstawową rzeczą jest ocena ich dokładności. Im bardziej dokładne kubity, tym mniej będziemy ich potrzebowali, a zatem tym szybciej będziemy w stanie wyprodukować prawdziwy komputer kwantowy, dodaje profesor Dzurak. Australijczycy zauważają jeszcze jedną świetną informację, która płynie z ich badań. Otóż krzem po raz kolejny dowiódł,; że jest świetną platformą obliczeniową. Jako, że materiał ten jest wykorzystywany w przemyśle elektronicznym od niemal 60 lat jego właściwości, ograniczenia i problemy z nim związane zostały dobrze poznane, zatem już istniejące fabryki będą w stanie przestawić się na nową technologię. Jeśli okazałoby się, że dokładność kwantowych obliczeń na krzemie jest zbyt niska, to mielibyśmy poważny problem. Fakt, że wynosi ona blisko 99% to bardzo dobra wiadomość. Daje nam to możliwość dalszych udoskonaleń. To pokazuje, że krzem jest odpowiednia platformą dla prawdziwych komputerów kwantowych, cieszy się Dzurak. Myślę, że w najbliższej przyszłości osiągniemy znacznie większą dokładność i otworzymy w ten sposób drzwi do zbudowania prawdziwego odpornego na błędy komputera kwantowego. Obecnie jesteśmy bliscy granicy, poza którą w dwukubitowych systemach będzie można zastosować korekcję błędów, dodaje. Warto w tym miejscu przypomnieć, że niedawno zespół Dzuraka poinformował na łamach Nature Electronics o osiągnięciu rekordowej dokładności jednokubitowej bramki logicznej. Wyniosła ona 99,96%. « powrót do artykułu
  22. Osoby, które regularnie piją kawę, potrafią wywąchać nawet niewielkie ilości ulubionego napoju i szybciej rozpoznają jego aromat. Naukowcy z Uniwersytetu w Portsmouth odkryli także, że im większą mają oni ochotę na kawę, tym lepiej radzą sobie z jej wykrywaniem. Autorzy publikacji z pisma Experimental and Clinical Psychopharmacology przekonują, że uzyskane wyniki wskazują na nowe sposoby wykorzystania terapii awersyjnej do leczenia osób uzależnionych od substancji z unikatowym zapachem, np. od tytoniu czy marihuany. Odkryliśmy, że im więcej kofeiny spożywa dana osoba, tym szybciej rozpoznaje woń kawy. Stwierdziliśmy też, że bardziej zagorzali kawosze lepiej sobie radzili z wykrywaniem zapachu silnie rozcieńczonej kawy [...]. Zdolność ta nasilała się wraz z poziomem natężenia zachcianek [ochoty na małą czarną] - opowiada dr Lorenzo Stafford. Brytyjczycy przeprowadzili 2 eksperymenty. W pierwszym wzięły udział 62 osoby (kobiety i mężczyźni). Wyodrębniono 3 grupy: 1) tę, która nigdy nie piła niczego zawierającego kofeinę, 2) spożywającą umiarkowane jej ilości (70-250 mg, co stanowi odpowiednik 1-3,5 kubka kawy rozpuszczalnej) oraz 3) spożywającą duże ilości kofeiny (300 mg, co stanowi odpowiednik 4 lub więcej kubków kawy rozpuszczalnej dziennie). Ochotnikom zawiązano oczy i przetestowano wrażliwość na zapach kawy (należało odróżnić bardzo małą ilość kawowego zapachu od bezwonnych próbek). Naukowcy przeprowadzili też test rozpoznawania zapachów. Okazało się, że przedstawiciele 3. grupy potrafili rozpoznać kawę w mniejszych stężeniach i szybciej identyfikowali jej zapach. Badani wypełniali też kwestionariusz do określania ochoty na kofeinę. Wyniki nikogo nie zaskoczyły. Stwierdzono bowiem, że im więcej kofeiny spożywała zazwyczaj dana osoba, tym silniejszą miała na nią chęć. W 2. eksperymencie uwzględniono 32 nowe osoby (niektóre piły na co dzień kawę, inne nie). Najpierw wszyscy wzięli udział w teście wykrywania woni kawy, później przeprowadzono próby dla zapachu kontrolnego (nieżywnościowego). Ponownie okazało się, że kawosze byli wrażliwsi na woń kawy. Nie zaobserwowano różnic w zakresie wrażliwości na zapach kontrolny. « powrót do artykułu
  23. Większość inkluzji w bursztynach to organizmy leśne. Bardzo rzadko zdarza się znaleźć w nich istoty żyjące w morzu. Międzynarodowy zespół naukowców opisał jednak ostatnio w periodyku PNAS pierwszy znany przypadek zachowanego w bursztynie amonita (Puzosia). Amonit zachował się w bursztynie z północnej Mjanmy. Bursztyn sprzed ok. 99 mln lat mierzy 33x9,5x29 mm i waży 6,08 g. "Utknął" w nim nie tylko amonit. Wg naukowców, trafiło do niego co najmniej 40 zwierząt. Do najbardziej liczebnych zwierząt lądowych należą roztocze. Występują również pająki, karaczany, chrząszcze czy błonkówki. Większość z nich żyła zapewne na dnie lasu. Spośród zwierząt morskich poza amonitem opisano m.in. ślimaki. By uzyskać trójwymiarowe zdjęcia amonita w wysokiej rozdzielczości, naukowcy z zespołu prof. Wanga Bo z Nanjing Institute of Geology and Palaeontology of the Chinese Academy of Sciences (NIGPAS) posłużyli się mikrotomografią. Okazało się, że amonit to młodociany osobnik z rodzaju Puzosia (Bhimaites), co stanowi dodatkowe poparcie dla idei, że złoże bursztynu należy datować na późny alb-wczesny cenoman. Odkrycie stanowi rzadki przykład datowania w oparciu o bursztynowe inkluzje. Jakim jednak cudem amonit, zwierzę morskie, zachował się w bursztynie zawierającym również zwierzęta lądowe? Wskazówek mogą dostarczyć skorupki amonita i ślimaków morskich. Ponieważ są one puste, uszkodzone i zatkane piaskiem, a w samym bursztynie również widoczne są drobinki piasku, wszystko wskazuje na to, że zwierzęta były martwe na długo przed tym, jak dostały się do żywicy. Wydaje się więc, że w pobliżu drzew wytwarzających żywicę musiała się znajdować pokryta muszlami piaszczysta plaża. Owady latające zostały uwięzione, gdy żywica była nadal na drzewie. Spływając po pniu pochłonęła ona zaś organizmy żyjące bliżej gruntu, a później te z plaży... « powrót do artykułu
  24. W marcu administracja prezydencka nakazała NASA przygotowanie załogowej misji na Księżyc i wyznaczyła roku 2024 jako datę ponownego lądowania człowieka na Srebrnym Globie. Tym razem na powierzchni naszego naturalnego satelity ma stanąć nie tylko mężczyzna, ale również kobieta. Teraz administrator NASA, Jim Bridenstine poinformował, że Biały Dom zwrócił się do Kongresu o wprowadzenie poprawki budżetowej na rok 2020 i przyznanie NASA dodatkowych 1,6 miliarda dolarów. Dodatkowe środki mają zostać przeznaczone na przyspieszenie prac nad Space Launch System i Orionem, zintensyfikowanie prac naukowych i technologicznych oraz zintensyfikowanie eksploracji Księżyca za pomocą robotów. Program powrotu na Księżyc został nazwany Artemis (Artemida). To w mitologii greckiej bogini Księżyca i siostra bliźniaczka Apollina. Mamy tu więc również nawiązanie do misji Apollo, w ramach człowiek po raz pierwszy wylądował na Księżycu. Dotychczas po Srebrnym Globie chodziło 12 ludzi. Ostatnim, który postawił na nim nogę był Harrison Schmitt, a ostatnim, który opuścił powierzchnię Księżyca był Eugene Andrew Cernan. Obaj panowie byli na Księżycu 14 grudnia 1972 roku. Roczny budżet NASA to około 21,5 miliarda dolarów. W roku podatkowym 2019 na rozwój Oriona, SLS i ministację księżycową NASA wydała 4,5 miliarda USD. Wielu ekspertów i polityków obawia się, że NASA nie uda się wysłać astronautów na Księżyc w roku 2024. Rozwój rozwijanego przez Boeinga systemu SLS jest bowiem poważnie opóźniony. Gdy dziennikarze zapytali Bridenstine'a, ile pieniędzy pochłonie program powrotu na Księżyc, ten odpowiedział: Chciałbym móc odpowiedzieć na to pytanie.   « powrót do artykułu
  25. Oznaczany jako E171 tlenek tytanu(IV) - biel tytanowa - występuje w licznych produktach, m.in. majonezie czy paście do zębów. Stykamy się z nim codziennie, a ostatnie badania naukowców z Uniwersytetu w Sydney pokazały, że wpływa on na mikrobiom i może wyzwalać różne choroby, np. raka jelita grubego i nieswoiste zapalenia jelit (ang. inflammatory bowel diseases, IBD). Celem tego badania jest pobudzenie dyskusji o nowych standardach i regulacjach, tak by zagwarantować bezpieczne wykorzystywanie nanocząstek w Australii i na świecie - podkreśla prof. Wojciech Chrzanowski. Choć nanocząstki były/są powszechnie wykorzystywane w lekach, pokarmach, ubraniach itp., możliwe ich oddziaływania, zwłaszcza długoterminowe, nadal są słabo poznane. Spożycie E171 znacząco wzrosło w ciągu ostatniej dekady. Mimo że jest dopuszczony do wykorzystywania w żywności, nie ma dostatecznych dowodów na jego bezpieczeństwo. W tym kontekście warto np. zauważyć, że 17 kwietnia Francja wprowadziła rozporządzenie, na mocy którego zakazano sprzedaży produktów zawierających E171; zakaz ma wejść w życie 1 stycznia przyszłego roku i będzie obowiązywać przez rok. Od dawna wiadomo, że skład produktów ma wpływ na fizjologię i stan zdrowia, ale rola dodatków do żywności jest słabo poznana - podkreśla Chrzanowski, ekspert od nanotoksyczności. Coraz więcej dowodów świadczy o tym, że stała ekspozycja na nanocząstki ma wpływ na skład mikroflory jelit, a ponieważ mikrobiom stoi na straży naszego zdrowia, jakiekolwiek zmiany jego funkcji mogą wpłynąć na zdrowie ogólne. Opisywane badanie prezentuje dowody, że spożycie produktów zawierających E171 (tlenek tytanu) wpływa na mikrobiom i zapalenie jelit, co może prowadzić do takich chorób, jak rak jelita grubego oraz IBD. Prof. Laurence Macia dodaje, że badania australijskiej ekipy, które prowadzono na myszach, pokazują, że tlenek tytanu(IV) wchodzi w interakcje z bakteriami z przewodu pokarmowego i upośledza pewne ich funkcje. Skutkiem tego może być rozwój różnych chorób. Twierdzimy, że spożycie E171 powinno być lepiej regulowane przez odpowiednie organy. Podczas eksperymentów na gryzoniach zauważyliśmy, że choć tlenek tytanu(IV) nie zmieniał składu mikrobiomu, wpływał na aktywność bakterii i sprzyjał ich wzrostowi w formie niepożądanego biofilmu. Biofilm to bakterie, które ściśle do siebie przywierają; jego tworzenie stwierdzono w różnych chorobach, np. w raku jelita grubego. Szczegółowe wyniki badania ukazały się w piśmie Frontiers in Nutrition. Warto przypomnieć, że niecały miesiąc temu (25 kwietnia) pisaliśmy o tym, że inny popularny dodatek do żywności - propionian, który jest szeroko wykorzystywany np. w wypiekach - zwiększa poziom hormonów odpowiedzialnych za otyłość i cukrzycę. « powrót do artykułu
×
×
  • Dodaj nową pozycję...