Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Nanotechnologom zależy na tym, by kiedyś w przyszłości móc wpływać na pojedyncze struktury i procesy zachodzące w komórce. Nanocząstki doskonale się do tego nadają, bo są małe i da się je zaprojektować pod wykonanie konkretnego zadania. Pobudzone przez pole elektromagnetyczne o częstotliwościach radiowych (RF) mogłyby np. stopić nić DNA, rozproszyć agregaty białek czy uszkodzić jądro. Nie wiadomo jednak, na co je w takich sytuacjach stać, bo do tej pory nie umiano zmierzyć ich temperatury.

Specjaliści z Rensselaer Polytechnic Institute opracowali nową technikę określania wzrostu temperatury w pobliżu nanocząstek wzbudzonych polem magnetycznym o częstotliwościach radiowych. Jako czujniki wykorzystali fluorescencyjne kropki kwantowe. Zespół ustalił, że gdy nanocząstki były wzbudzone, mierzalny wzrost temperatury był taki sam, bez względu na to, czy czujniki po prostu zmieszano z nanocząstkami, czy powstało pomiędzy nimi wiązanie kowalencyjne (elektrony były współdzielone przez nanocząstki i kropki). Dokonywanie lokalnych pomiarów jest ważne, gdyż pokazuje ograniczenia ogrzewania RF, a przynajmniej unaocznia je w zakresie badanych częstotliwości – podsumowuje szefowa projektu Diana Borca-Tasciuc.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Nowa krzywa globalnych temperatur wskazuje, że w fanerozoiku średnie temperatury na Ziemi zmieniały się bardziej niż przypuszczano. Naukowcy z University of Arizona i Smithsonian Institution przeprowadzili badania, w ramach których zrekonstruowali temperatury w ciągu ostatnich 485 milionów lat. To okres, w którym życie na naszej planecie zróżnicowało się, podbiło lądy i przetrwało liczne okresy wymierania.
      Fanerozoik rozpoczyna się eksplozją kambryjską sprzed około 540 milionów lat i trwa do dzisiaj. Naukowcy w swoich badaniach ograniczyli się do 485 milionów lat, ze względu na niedostateczną ilość starszych danych geologicznych. Trudno jest znaleźć tak stare skały, w których zachował się zapis o panujących temperaturach. Nie mamy ich zbyt wielu nawet dla 485 milionów lat temu. To ogranicza nasze cofanie się w czasie, mówi profesor Jessica Tierney z Arizony.
      Uczeni wykorzystali asymilację danych, w trakcie której połączyli zapis geologiczny z modelami klimatycznymi. Badania pozwoliły im lepiej zrozumieć, czego możemy spodziewać się w przyszłości. Jeśli badasz ostatnich kilka milionów lat, to nie znajdziesz niczego, co może być analogią dla zjawisk, jakich spodziewamy się w roku 2100 czy 2500. Trzeba cofnąć się znacznie dalej, gdy Ziemia była naprawdę gorąca. Tylko tak możemy zrozumieć zmiany, jakie mogą zajść w przyszłości, wyjaśnia Scott Wing, kurator zbiorów paleobotaniki w Smithsonian National Museum of Natural History.
      Nowa krzywa temperatury pokazuje, że w tym czasie średnie temperatury na Ziemi zmieniały się w zakresie od 11,1 do 36,1 stopnia Celsjusza, a okresy wzrostu temperatur były najczęściej skorelowane ze zwiększoną emisją dwutlenku węgla do atmosfery. To jasno pokazuje, że dwutlenek węgla jest głównym czynnikiem kontrolującym temperatury na Ziemi. Gdy jest go mało, temperatury są niskie, gdy jest go dużo, na Ziemi jest gorąco, dodaje Tierney.
      Badania pokazały też, że obecnie średnia temperatura jest niższa niż średnia dla większości fanerozoiku. Jednocześnie jednak antropogeniczne emisje CO2 powodują znacznie szybszy wzrost temperatury niż w jakimkolwiek momencie z ostatnich 485 milionów lat. To stwarza duże zagrożenie dla wielu gatunków roślin i zwierząt. Niektóre okresy szybkich zmian klimatycznych wiązały się z masowym wymieraniem.
      Badacze zauważają, że ocieplenie klimatu może być też niebezpieczne dla ludzi. Nasz gatunek doświadczył w swojej historii zmian średnich temperatur o około 5 stopni Celsjusza. To niewiele, jak na 25-stopniową zmianę w ciągu ostatnich 485 milionów lat. Wyewoluowaliśmy w chłodnym okresie, który nie jest typowy dla większości geologicznej historii. Zmieniamy klimat w sposób, który wykracza poza to, czego doświadczyliśmy. Planeta była i może być cieplejsza, ale ludzie i zwierzęta nie zaadaptują się do tak szybkich zmian, dodaje Tierney.
      Projekt zbadania temperatur w fanerozoiku rozpoczął się w 2018 roku, gdy pracownicy Smithsonian National Museum postanowili zaprezentować zwiedzającym krzywą temperatur z całego eonu. Badacze wykorzystali pięć różnych chemicznych wskaźników temperatury zachowanych w skamieniałym materiale organicznym. Na ich podstawie oszacowali temperaturę w 150 000 krótkich okresach czasu. Jednocześnie współpracujący z nimi naukowcy z University of Bristol – na podstawie rozkładu kontynentów i składu atmosfery – stworzyli ponad 850 symulacji temperatur w badanym czasie. Następnie autorzy badań połączyli oba zestawy danych, tworząc najbardziej precyzyjną krzywą temperatur dla ostatnich 485 milionów lat.
      Dodatkową korzyścią z badań jest stwierdzenie, że czułość klimatu – czyli przewidywana zmiana średniej temperatury na Ziemi przy dwukrotnej zmianie stężenia CO2 – jest stała. Dwutlenek węgla i temperatury są nie tylko blisko powiązane, ale są powiązane w ten sam sposób przez 485 milionów lat. Nie zauważyliśmy, by czułość klimatu zmieniała się w zależności od tego, czy jest zimno czy gorąco, dodaje Tierney.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Po dziesięcioleciach udało się odkryć ambipolarne (dwukierunkowe) pole elektryczne Ziemi. To słabe pole elektryczne naszej planety, które jest tak podstawową jej cechą jak grawitacja czy pola magnetyczne. Hipoteza o istnieniu takiego pola pojawiła się ponad 60 lat temu i od tamtego czasu poszukiwano tego pola. Jest ono kluczowym mechanizmem napędzającym „wiatr polarny”, czyli ucieczkę naładowanych cząstek z ziemskiej atmosfery w przestrzeń kosmiczną. Ma ona miejsce nad ziemskimi biegunami.
      „Wiatr polarny” został odkryty w latach 60. XX wieku. Od samego początku naukowcy uważali, że jego siłą napędową jest nieznane pole elektryczne. Uważano, że jest ono generowane w skali subatomowej i jest niezwykle słabe. Przez kolejnych kilkadziesiąt lat ludzkość nie dysponowała narzędziami, które mogły zarejestrować takie pole.
      W 2016 roku Glyn Collinson i jego zespół z Goddars Space Flight Center zaczęli pracować nad instrumentami zdolnymi do zmierzenia ambipolarnego pola elektrycznego. Stworzone przez nich urządzenia oraz metoda pomiaru zakładały przeprowadzenie badań za pomocą rakiety suborbitalnej wystrzelonej z Arktyki. Badacze nazwali swoją misję Endurance, na cześć statku, którym Ernest Shackleton popłynął w 1914 roku na swoją słynną wyprawę na Antarktykę. Rakietę postanowiono wystrzelić ze Svalbardu, gdzie znajduje się najbardziej na północ wysunięty kosmodrom. Svalbard to jedyny kosmodrom na świecie, z którego można wystartować, by przelecieć przez wiatr polarny i dokonać koniecznych pomiarów, mówi współautorka badań, Suzie Imber z University of Leicester.
      Misja Endurance została wystrzelona 11 maja 2022 roku. Rakieta osiągnęła wysokość 768,03 km i 19 minut później spadła do Morza Grenlandzkiego. Urządzenia pokładowe zbierały dane przez 518 kilometrów nabierania wysokości i zanotowały w tej przestrzeni zmianę potencjału elektrycznego o 0,55 wolta. Pół wolta to tyle co nic, to napięcie baterii w zegarku. Ale to dokładnie tyle, ile trzeba do napędzenia wiatru polarnego, wyjaśnia Collinson.
      Generowane pole elektryczne oddziałuje na jony wodoru, które dominują w wietrze polarnym, z siłą 10,6-krotnie większą niż grawitacja. To więcej niż trzeba, by pokonać grawitację. To wystarczająco dużo, by wystrzelić jony z prędkością naddźwiękową prosto w przestrzeń kosmiczną, dodaje Alex Glocer z NASA. Pole napędza też cięższe pierwiastki, jak jony tlenu. Z badań wynika, że dzięki obecności tego pola elektrycznego jonosfera jest na dużej wysokości o 271% bardziej gęsta, niż byłaby bez niego. Mamy tutaj rodzaj taśmociągu, podnoszącego atmosferę do góry, dodaje Collinson.
      Pole to nazwano ambipolarnym (dwukierunkowym), gdyż działa w obie strony. Opadające pod wpływem grawitacji jony ciągną elektrony w dół, a w tym samym czasie elektrony – próbując uciec w przestrzeń kosmiczną – ciągną jony w górę. Wskutek tego wysokość atmosfery zwiększa się, a część jonów trafia na wystarczającą wysokość, by uciec w przestrzen kosmiczną w postaci wiatru polarnego.
      Odkrycie ambipolarnego pola elektrycznego otwiera przed nauką nowe pola badawcze. Jest ono bowiem, obok grawitacji i pola magnetycznego, podstawowym polem energetycznym otaczającym naszą planetę, wciąż wpływa na ewolucję naszej atmosfery w sposób, który dopiero teraz możemy badać. Co więcej, każda planeta posiadająca atmosferę powinna mieć też ambipolarne pole elektryczne. Można więc będzie go szukać i badać na Marsie czy Wenus.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Po raz czwarty z rzędu światowe oceany pobiły rekordy ciepła. Kilkunastu naukowców z Chin, USA, Nowej Zelandii, Włoch opublikowało raport, z którego dowiadujemy się, że w 2022 roku światowe oceany – pod względem zawartego w nich ciepła – były najcieplejsze w historii i przekroczyły rekordowe maksimum z roku 2021. Poprzednie rekordy ciepła padały w 2021, 2020 i 2019 roku. Oceany pochłaniają nawet do 90% nadmiarowego ciepła zawartego w atmosferze, a jako że atmosfera jest coraz bardziej rozgrzana, coraz więcej ciepła trafia do oceanów.
      Lijing Cheng z Chińskiej Akademii Nauk, który stał na czele grupy badawczej, podkreślił, że od roku 1958, kiedy to zaczęto wykonywać wiarygodne pomiary temperatury oceanów, każda dekada była cieplejsza niż poprzednia, a ocieplenie przyspiesza. Od końca lat 80. tempo, w jakim do oceanów trafia dodatkowa energia, zwiększyło się nawet 4-krotnie.
      Z raportu dowiadujemy się, że niektóre obszary ocieplają się szybciej, niż pozostałe. Swoje własne rekordy pobiły Północny Pacyfik, Północny Atlantyk, Morze Śródziemne i Ocean Południowy. Co gorsza, naukowcy obserwują coraz większą stratyfikację oceanów, co oznacza, że wody ciepłe i zimne nie mieszają się tak łatwo, jak w przeszłości. Przez większą stratyfikację może pojawić się problem z transportem ciepła, tlenu i składników odżywczych w kolumnie wody, co zagraża ekosystemom morskim. Ponadto zamknięcie większej ilości ciepła w górnej części oceanów może dodatkowo ogrzać atmosferę. Kolejnym problemem jest wzrost poziomu wód oceanicznych. Jest on powodowany nie tylko topnieniem lodu, ale również zwiększaniem objętości wody wraz ze wzrostem jej temperatury.
      Ogrzewające się oceany przyczyniają się też do zmian wzorców pogodowych, napędzają cyklony i huragany. Musimy spodziewać się coraz bardziej gwałtownych zjawisk pogodowych i związanych z tym kosztów. Amerykańska Administracja Oceaniczna i Atmosferyczna prowadzi m.in. statystyki dotyczące gwałtownych zjawisk klimatycznych i pogodowych, z których każde przyniosło USA straty przekraczające miliard dolarów. Wyraźnie widać, że liczba takich zjawisk rośnie, a koszty są coraz większe. W latach 1980–1989 średnia liczba takich zjawisk to 3,1/rok, a straty to 20,5 miliarda USD/rok. Dla lat 1990–1999 było to już 5,5/rok, a straty wyniosły 31,4 miliarda USD rocznie. W ubiegłym roku zanotowano zaś 18 takich zjawisk, a straty sięgnęły 165 miliardów dolarów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Intensywność pola magnetycznego Ziemi zmniejsza się od około 200 lat. Proces ten przebiega na tyle szybko, że niektórzy naukowcy ogłosili, iż w ciągu 2000 lat dojdzie do zamiany biegunów magnetycznych. Przebiegunowanie mogłoby spowodować, że przez kilka tysięcy lat Ziemia byłaby gorzej chroniona przed szkodliwym promieniowaniem kosmicznym i słonecznym. To z kolei doprowadziłoby do poważnych zakłóceń i awarii sprzętu elektronicznego, wzrostu przypadków zachorowań na nowotwory i zwiększenia się liczby mutacji genetycznych. Niewykluczone, że ucierpiałyby też te gatunki zwierząt, które w swoich migracjach orientują się wedle pola magnetycznego.
      Naukowcy z MIT-u opublikowali na łamach PNAS artykuł opisujący wyniki ich badań nad stanem pola magnetycznego planety. Ich zdaniem przebiegunowanie nie grozi nam w najbliższym czasie. Uczeni obliczyli średnią intensywność stabilnego ziemskiego pola magnetycznego na przestrzeni ostatnich 5 milionów lat i odkryli, że obecnie pole to jest dwukrotnie bardziej intensywne niż średnia z tego okresu. To oznacza, że minie jeszcze sporo czasu, zanim pole magnetyczne planety stanie się niestabilne i dojdzie do przebiegunowania. To olbrzymia różnica, czy dzisiejsze pole magnetyczne jest takie jak średnia długoterminowa czy też jest powyżej średniej. Teraz wiemy, że nawet jeśli intensywność pola magnetycznego Ziemi się zmniejsza to jeszcze przez długi czas będzie się ono znajdowało w bezpiecznym zakresie - mówi Huapei Wang, główny autor badań.
      Z innych badań wiemy, że w przeszłości wielokrotnie dochodziło do przebiegunowania naszej planety. Jest to jednak proces bardzo nieregularny. Czasami przez 40 milionów lat nie było przebiegunowania, a czasem bieguny zmieniały się 10-krotnie w ciągu miliona lat. Średni czas pomiędzy przebiegunowaniami wynosi kilkaset tysięcy lat. Ostatnie przebiegunowanie miało miejsce około 780 000 lat temu, zatem średnia już została przekroczona - dodaje Wang.
      Sygnałem nadchodzącego przebiegunowania jest znaczący spadek poniżej średniej długoterminowej intensywności pola magnetycznego. To wskazuje, że stanie się ono niestabilne. Zarówno z badań terenowych jak i satelitarnych mamy dobre dane dotyczące ostatnich 200 lat. Mówiąc o przeszłości musimy opierać się na mniej pewnych szacunkach.
      Grupa Wanga zdobywała informacje o przeszłości ziemskiego pola magnetycznego badając skały wyrzucone przez wulkany na Galapagos. To idealne miejsce, gdyż wyspy położone są na równiku. Stabilne pole magnetyczne jest dipolem, jego intensywność powinna być taka sama na obu biegunach, a na równiku powinna być o połowę mniejsza. Wang stwierdził, że jeśli pozna historyczną intensywność pola magnetycznego na równiku i na biegunach uzyska dokładne dane na temat średniej historycznej intensywności. Sam zdobył próbki z Galapagos, a próbki z Antarktyki dostarczyli mu naukowcy ze Scripps Institution of Oceanography. Naukowcy najpierw zmierzyli naturalny magnetyzm skał. Następnie podgrzali je i ochłodzili w obecności pola magnetycznego i zmierzyli ich magnetyzm po ochłodzeniu. Naturalny magnetyzm skał jest proporcjonalny do pola magnetycznego, w którym stygły. Dzięki eksperymentom naukowcy byli w stanie obliczyć średnią historyczną intensywność pola magnetycznego. Wynosiła ona około 15 mikrotesli na równiku i 30 mikrotesli na biegunach. Dzisiejsza intensywność wynosi zaś, odpowiednio, 30 i 60 mikrotesli. To oznacza, że dzisiejsza intensywność jest nienormalnie wysoka i jeśli nawet ona spadnie, to będzie to spadek do długoterminowej średniej, a nie ze średniej do zera, stwierdza Wang.
      Uczony uważa, że naukowcy, którzy postulowali nadchodzące przebiegunowanie opierali się na wadliwych danych. Pochodziły one z różnych szerokości geograficznych, ale nie z równika. Dopiero Wang wziął pod uwagę dane z równika. Ponadto odkrył, że w przeszłości źle rozumiano sposób, w jaki w skałach pozostaje zapisana informacja o ziemskim magnetyzmie. Z tego też powodu przyjęto błędne założenie. Uznano, że gdy poszczególne ferromagnetyczne ziarna w skałach ulegały schłodzeniu spiny elektronów przyjmowały tę samą orientację, z której można było odczytać intensywność pola magnetycznego. Teraz wiemy, że jest to prawdą ale tylko do pewnej ograniczonej wielkości ziaren. Gdy są one większe spiny elektronów w różnych częściach ziarna przyjmują różną orientację. Wang opracował więc metodę korekty tego zjawiska i zastosował ją przy badaniach skał z Galapagos.
      Wang przyznaje, że nie wie, kiedy dojdzie do kolejnego przebiegunowania. Jeśli założymy, że utrzyma się obecny spadek, to za 1000 lat intensywność pola magnetycznego będzie odpowiadała średniej długoterminowej. Wówczas może zacząć się zwiększać. Tak naprawdę nie istnieje sposób, by przewidzieć, co się stanie. Proces magnetohydrodynamiczny ma bowiem chaotyczną naturę".

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Pewnego dnia będziemy mogli monitorować stan swojego zdrowia używając do tego celu... ołówka i rysując nim urządzenie bioelektroniczne. Tak przynajmniej obiecują naukowcy z University of Missouri, którzy dowiedli, że ołówek i kawałek papieru to wszystko, czego potrzeba, by stworzyć urządzenie do monitorowania stanu zdrowia.
      Profesor Zheng Yan zauważa, że wiele komercyjnych urządzeń biomedycznych umieszczanych na skórze składa się z dwóch podstawowych elementów: modułu biomedycznego oraz stanowiącego podłoże elastycznego materiału, który zapewnia mocowanie do skóry i kontakt z nią.
      Standardowy sposób produkcji takich urządzeń jest złożony i kosztowny. W przeciwieństwie do tego nasza technika jest tania i bardzo prosta. Możemy stworzyć takie urządzenie za pomocą papieru i ołówka, mówi Yan.
      Warto pamiętać, że wkład ołówków stanowi głównie grafit. Naukowcy zauważyli, że ołówki zawierające ponad 90% grafitu są w stanie przewodzić duże ilości energii, jaka powstaje w wyniku tarcia rysika o papier. Szczegółowe badania wykazały, że do stworzenia na papierze różnych urządzeń biomedycznych najlepsze są ołówki, w których rysiku jest 93% grafitu. Yan zauważył też, że pomocny może być biokompatybilny klej w spraju, który można nałożyć na papier, by lepiej przylegał do skóry.
      Naukowcy mówią, że ich odkrycie może mieć olbrzymie znaczenie dla rozwoju taniej, domowej diagnostyki medycznej, edukacji czy badań naukowych. Na przykład jeśli ktoś ma problemy ze snem, jesteśmy w stanie narysować biomedyczne urządzenie, które pomoże monitorować sen tej osoby, stwierdza Yan. Dodatkową zaletą takich urządzeń jest fakt, że papier bardzo szybko ulega biodegradacji, więc produkcja tego typu czujników nie będzie wiązała się z wytwarzaniem zalegających odpadów.
      Autorzy badań twierdzą, że w ten sposób można będzie tworzyć czujniki temperatury, czynności elektrycznej mięśni i nerwów obwodowych, pracy układu krążenia, czujniki oddechu, urządzenia monitorujące pH potu, zawartość w nim glukozy czy kwasu moczowego i wiele innych urządzeń. Jakość przekazywanych przez nie sygnałów jest porównywalna z komercyjnie dostępnymi czujnikami. Całość zaś zasilana będzie dzięki wilgoci obecnej w powietrzu. Jak zauważyli naukowcy, pojedyncze narysowane ołówkiem urządzenie o powierzchni 0,87 cm2 może dzięki wilgotności powietrza generować przez 2 godziny napięcie sięgające 480 mV.
      Opisujący badania Yana artykuł Pencil-paper on-skin electronics został opublikowany w PNAS. Badania były finansowane przez amerykańską Narodową Fundację Nauki, Narodowe Instytuty Zdrowia oraz Biuro Badań Naukowych Sił Powietrznych.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...