Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'ciepło' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 22 wyników

  1. Xinwei Wang, profesor z Iowa State University, dowiódł, że nić pajęcza przewodzi ciepło równie dobrze jak metal. Uczony specjalizuje się w poszukiwaniu naturalnych przewodników ciepła. Wiadomo, że takimi przewodnikami są diamenty, miedź czy aluminium, ale większość naturalnych materiałów bardzo słabo przewodzi ciepło. Środowisko naukowe od pewnego czasu spekulowało, że nić pajęcza może być przewodnikiem ciepła, ale nikt tego dotychczas nie badał. Wang zaprzągł do pracy osiem pająków z gatunku Nephila clavipes, które żywił w klatkach. Pozyskaną od nich sieć poddał testom i odkrył, że jest ona zadziwiająco dobrym przewodnikiem. Transportuje ona ciepło 1000-krotnie lepiej niż przędza jedwabnika i 800 razy lepiej niż inne naturalne tkanki. Jest w tym nawet lepsze od... miedzi. Przewodność cieplna nici pajęczej wynosi bowiem 416 watów na metr-kelwin, podczas gdy miedzi - 401 W/(m-K). Przędza pająka jest niewiele gorsza od srebra, którego przewodność cieplna to 429 W/(m-K). „Nasze odkrycie zmieni pogląd, jakoby materiały biologiczne charakteryzowały się niską przewodnością cieplną“ - stwierdził Wang. Kolejną zadziwiającą właściwością pajęczych nici jest fakt, że ich przewodność cieplna rośnie w miarę rozciągania. W większości materiałów przewodność cieplna spada gdy są rozciągane. Tymczasem uczony rozciągnął nić o 20% i uzyskał wzrost jej przewodności cieplnej również o 20%. Zdaniem Wanga badany przez niego materiał charakteryzuje się tak dobrą przewodnością gdyż na poziomie molekularnym pozbawiony jest defektów, zawiera proteiny z nanokryształami oraz przypominające sprężyny struktury łączące proteiny. Uczony zastanawia się, czy nie można będzie tak zmodyfikować przędzy pajęczej, by zwiększyć jej przewodność. Nowo odkryte właściwości nici pająka mogą posłużyć do stworzenia lepszej odzieży ochronnej, systemów odprowadzania ciepła z elektroniki, bandaży, które nie będą zatrzymywały ciepła i wielu innych przydatnych przedmiotów.
  2. Międzynarodowy zespół uczonych wpadł na trop rewolucyjnej, niespodziewanej metody zapisu danych na dyskach twardych. Pozwala ona na setki razy szybsze przetwarzanie informacji niż ma to miejsce we współczesnych HDD. Naukowcy zauważyli, że do zapisu danych wystarczy jedynie ciepło. Dzięki temu będzie ona zachowywana znacznie szybciej i zużyje się przy tym mniej energii. Zamiast wykorzystywać pole magnetyczne do zapisywania informacji na magnetycznym nośniku, wykorzystaliśmy znacznie silniejsze siły wewnętrzne i zapisaliśmy informację za pomocą ciepła. Ta rewolucyjna metoda pozwala na zapisywanie terabajtów danych w ciągu sekundy. To setki razy szybciej niż pracują obecne dyski. A jako, że nie trzeba przy tym wytwarzać pola magnetycznego, potrzeba mniej energii - mówi fizyk Thomas Ostler z brytyjskiego University of York. W skład międzynarodowego zespołu, który dokonał odkrycia, wchodzili uczeni z Hiszpanii, Szwajcarii, Ukrainy, Rosji, Japonii i Holandii. Doktor Alexey Kimel z Instytutu Molekuł i Materiałów z Uniwersytetu w Nijmegen mówi: Przez wieki sądzono, że ciepło może tylko niszczyć porządek magnetyczny. Teraz pokazaliśmy, że w rzeczywistości jest ono impulsem wystarczającym do zapisania informacji na magnetycznym nośniku. Uczeni wykazali, że bieguny w domenach magnetycznych na dysku można przełączać nie tylko za pomocą pola magnetycznego generowanego przez głowicę zapisująco-odczytującą, ale również dzięki ultrakrótkim impulsom cieplnym.
  3. W dokumencie The Data Furnaces: Heating Up with Cloud Computing specjaliści z Microsoft Research proponują ogrzewanie domów ciepłem odpadowym z chmur obliczeniowych. Podobne pomysły nie są niczym nowym, jednak inżynierowie Microsoftu wpadli na nowatorski pomysł tworzenia infrastruktury chmur. Proponują oni mianowicie, by serwerów nie instalować w wielkim centrum bazodanowym, ale... w domach, które mają być przez nie ogrzewane. W ten sposób rachunki w gospodarstwie domowym za ogrzewanie spadłyby niemal do zera. Olbrzymie kwoty, rzędu 280-324 dolarów rocznie od serwera, zaoszczędziliby również właściciele chmur obliczeniowych. Autorzy dokumentu przewidują, że serwery byłyby umieszczane w piwnicach domów jednorodzinnych. Właściciele domów byliby zobowiązani do ewentualnego restartowania maszyn w razie potrzeby. Jak twierdzą badacze z Microsoft Research właściciele chmur już od początku zanotowaliby poważne oszczędności. Nie musieliby bowiem ponosić kosztów związanych z budową lub wynajęciem i utrzymaniem pomieszczeń, budową sieci energetycznej i teleinformatycznej, systemu chłodzenia, obniżyliby koszty operacyjne. Z drugiej strony zauważają, że energia elektryczna jest sprzedawana odbiorcom indywidualnym drożej niż odbiorcom biznesowym, zwiększyłyby się koszty konserwacji, gdyż maszyny byłyby rozrzucone do po dużej okolicy, ponadto nie we wszystkich domach dostępne są łącza o wymaganej przepustowości. Oczywiście do domów jednorodzinnych trafiałyby niewielkie serwery. Większe maszyny można by ustawiać w biurowcach, gdzie również zapewnią ogrzewanie budynku. Analiza pokazała, że największe korzyści odnieśliby mieszkańcy tych stanów, w których ogrzewanie domów pochłania najwięcej pieniędzy. Pracownicy Microsoftu twierdzą ponadto, że ich propozycja spowoduje, iż możliwe będzie zwiększenie wydajności chmur obliczeniowych bez jednoczesnego zwiększania zużycia energii w skali kraju. Już przed 5 laty centra bazodanowe zużywały 3% energii produkowanej w USA. Dzięki instalowaniu ich w domach jednorodzinnych będzie można zwiększyć liczbę serwerów, a tym samym zwiększyć ilość zużywanej przez nie energii, co jednak nie spowoduje globalnego wzrostu jej zużycia, gdyż jednocześnie spadnie ilość energii zużywanej przez gospodarstwa domowe do ogrzewania. W analizie Microsoftu zabrakło jednak odniesienia się do kwestii bezpieczeństwa czy sytuacji awaryjnych, takich jak np. przerwy w dostawie prądu.
  4. Badacze z University of Minnesota odkryli nowy stop, który zamienia energię cieplną bezpośrednio w energię elektryczną. Prace badawcze znajdują się dopiero na wczesnym etapie, jednak nowa metoda może mieć olbrzymi wpływ np. na przemysł samochodowy. Pozwoliłaby bowiem na produkcję energii elektrycznej z ciepła układu wydechowego i ładować nią akumulatory samochodów elektrycznych. Nasze badania są bardzo obiecujące, gdyż dotyczą całkowicie nowej metody konwersji energii - stwierdził profesor Richard James, który stoi na czele zespołu naukowego. Uczeni, by uzyskać nowy stop, połączyli atomy tak, by powstał z nim materiał Ni45Co5Mn40Sn10. Nowy stop jest multiferroikiem, czyli materiałem charakteryzującym się jednocześnie więcej niż jedną cechą materiałów ferroikowych. Ich cztery podstawowe właściwości to ferromagnetyzm, ferroelektryczność, ferroelastyczność i ferrotoroidalność. Uzyskuje on tę właściwość dzięki przejściu przez odwracalny etap przemiany fazowej, podczas której jedno ciało stałe przechodzi w drugie. W trakcie przemiany zmieniają się właściwości magnetyczne materiału, które są wykorzystywane do zamiany energii cieplnej w elektryczną. Podczas przeprowadzonych eksperymentów niemagnetyczny materiał pod wpływem niewielkiej zmiany temperatury zyskał silne właściwości magnetyczne. Proces ten wiąże się z absorbcją ciepła i spontaniczną produkcją energii elektrycznej w otaczającym metal zwoju. Dochodzi przy tym do niewielkiej utraty ciepła, ale uczeni wiedzą, jak zmniejszyć straty. Badania te przekraczają wszelkie granice nauki i inżynierii. Dotyczą bowiem inżynierii, fizyki, materiałoznawstwa, chemii, matematyki i innych dziedzin - mówi profesor James. Prace prowadzone są w ramach grantu Multidisciplinary Univeristy Research Initiative sponsorowanego przez Biuro Badawcze Marynarki Wojennej USA.
  5. Szkockie destylarnie zasilą 9 tysięcy gospodarstw domowych energią i ciepłem ze spalania odpadów po produkcji whisky. W projekcie biorą udział niektóre z najbardziej znanych tutejszych destylarni. Ostatnio podpisano kontrakty na budowę zakładu w Rothes w słynącym z whisky regionie Strathspey. Ma on powstać do 2013 roku. Realizacja całości będzie kosztować 50 mln funtów. Flagowy przemysł Szkocji generuje ogromne ilości odpadów w postaci wytłoków z ziarna oraz osadów z miedzianych destylatorów. Spółka joint venture Helius Energy i Combination of Rothes Distillers (CoRD) zamierza spalać wytłoki z dodatkiem drewnianych strużyn. Energię do domów ma dostarczać duńska firma inżynieryjna Energie Technick. Z osadów z destylatora powstanie zagęszczony nawóz organiczny i pasza dla zwierząt lokalnych rolników. Niektórzy ekolodzy zgłosili zastrzeżenia, że część drewna będzie pochodzić spoza regionu, jednak zwolennicy projektu podkreślają, że moc rzędu 7,2 megawata (tyle dałyby dwie duże turbiny wiatrowe) doskonale odpowiada lokalnemu zapotrzebowaniu i pozwala zagospodarować marnowane dotąd materiały. Pięćdziesiąt ze 100 szkockich destylarni znajduje się w regionie Strathspey, dlatego jak twierdzi dyrektor generalny CoRD Frank Burns, to idealna lokalizacja dla bioelektrowni, która powstanie w już funkcjonującym ośrodku przemysłowym. Mamy duże wsparcie ze strony lokalnej społeczności. Na etapie planowania nie zgłoszono żadnych obiekcji [...]. Do zakładu trafią odpady z 16 destylarni w Strathspey, w tym ze znanych Glenlivet, Chivas Regal, Macallan i Famous Grouse. Wszystkie znajdują się w pobliżu planowanej spalarni.
  6. Próżnia jest powszechnie uznawana za najdoskonalszy izolator. brak atomów powoduje, że ciepło jest bardzo słabo przewodzone. Jednak najnowsze badania pozwoliły naukowcom wpaść na trop materiału, który jeszcze słabiej przewodzi ciepło. Chodzi tutaj o warstwy fotonicznych kryształów przedzielonych próżnią. Ciepło może być transferowane pomiędzy materiałai poprzez konwekcję, przewodnictwo i radiację. Dwie pierwsze metody wymagają istnienia materialnego medium, zatem nie działają w próżni. jednak radiacja w postaci światła podczerwonego przemieszcza się w próżni, powodując np. powolne stygnięcie płynu w termosie. Naukowcy z Uniwersytetu Stanforda pracujący pod kierunkiem Shanhuia Fana już w ubiegłym roku zaczęli zastanawiać się, czy istnieje lepszy izolator od próżni. Z ich teoretycznych wyliczeń wynikało, że mogą to być kryształy fotoniczne. Powstają one w naturze (np. opal), można je również wytworzyć w laboratorium. Ich szczególną cechą jest struktura o okresowo rozłożonym współczynniku załamania. Mamy w niej do czynienia z fotoniczną przerwą energetyczną, a więc nie przechodzi przezeń konkretna długość fali świetlnej. Uczeni odkryli, że struktura o grubości 100 mikrometrów, zbudowana z 10 warstw kryształów o grubości 1 mikrometra każda, pomiędzy którymi znajdują się 10-mikrometrowe obszary próżni, powoduje, że przewodnictwo cieplne jest o 50% mniejsze niż w przypadku zastosowania samej próżni. Dalsze badania dowiodły, że nie zależy ono od grubości warstw kryształów, ale od współczynnika załamania światła. Odkrycie to może mieć liczne zastosowania. Na przykład tam, gdzie energia słońca jest wykorzystywana do podgrzewania, przyda się materiał, który będzie przepuszczał światło widzialne, ale zatrzyma ciepło.
  7. Australijscy i japońscy naukowcy odkryli w pobliżu Antarktyki głęboki prąd oceaniczny o dużej prędkości, który pomoże monitorować wpływ zmiany klimatu na światowe oceany (Nature Geoscience). Prąd ma objętość 40 Amazonek i jest najszybciej płynącym ze wszystkich opisanych dotąd prądów: jego średnia prędkość wynosi 20 cm na sekundę. Jak wyjaśnia Steve Rintoul z Antarctic Climate and Ecosystems Cooperative Research Center w Hobart, przenosi on ponad 12 mln metrów sześciennych lodowatej, słonej wody na sekundę. Badacze wykrywali wcześniej dowody istnienia prądu, ale nie mieli żadnych danych na jego temat. Wiadomo jednak, że stanowi on ważną część globalnej cyrkulacji oceanicznej, która pomaga kontrolować klimat naszej planety. O tym, że nowo zbadany prąd jest tak wyjątkowy, świadczyć może kolejna wypowiedź Rintoula: Na tych głębokościach, poniżej 3 km pod powierzchnią, to największe odnotowane dotąd prędkości, które nas naprawdę zaskoczyły. Australijczyk dodaje, że prąd niesie gęstą i bogatą w tlen wodę, opadającą w pobliżu Antarktyki na większe głębokości, by przemieścić się na północ ku Wyniesieniu Kergueleńskiemu na południowym Oceanie Indyjskim, a następnie ulec rozgałęzieniu. Głęboki prąd koło Wyniesienia Kergueleńskiego stanowi część globalnej cyrkulacji oceanicznej (tzw. wielkiego pasa transmisyjnego, zwanego też cyrkulacją termohalinową lub południkową cyrkulacją wymienną), która określa, ile ciepła i węgla ocean wchłonie. Międzynarodowy zespół umieścił na dnie morskim (na głębokościach do 4,5 km) urządzenia zapisujące przez okres 2 lat aktualną prędkość, temperaturę i zasolenie wody. Ciągły pomiar [..] pozwolił nam po raz pierwszy ustalić, ile wody przenosi na północ rzeczony prąd oceaniczny.
  8. Boris Yakobson, fizyk z Rice University, i jego studenci opracowali teoretyczny model pokazujący, że fale dźwiękowe wędrujące w grafenie mogą wspomagać chłodzenie układów elektronicznych. Z dokonanych obliczeń wynika, że grafen może transportować energię cieplną w postaci fali. Można do jej transportu wykorzystać falę dźwiękową, która w grafenie wędruje szybko i daleko, a umożliwiałaby sprawne usuwanie nadmiaru ciepła. Oczywiście, jak zauważa Yakobson, skala jest tak mała, iż człowiek nie słyszałby żadnych dźwięków. Współautor opracowania, Enrique Munoz, stwierdza, że dzięki szczególnym właściwościom fononów - dźwiękowych odpowiedników fotonów - grafen może aż 10-krotnie bardziej wydajnie przewodzić ciepło niż miedź czy złoto. Naukowcy zauważają, że nie wystarczy po prostu przesłać fali dźwiękowej przez grafen. Trzeba dokładnie określić w jaki sposób ciepło w nim wędruje i tam, gdzie ma ono opuścić układ chłodzący, konieczne jest zastosowanie ośrodka gazowego lub ciekłego, w którym się rozproszy. W przeciwnym razie fala się odbije. Dlatego też swój teoretycznie opracowany system porównują do ciepłowodów
  9. Kobiety, które spożywają umiarkowane ilości alkoholu, zwłaszcza czerwonego wina, tyją mniej od abstynentek (Archives of Internal Medicine). Zespół z Brigham and Women's Hospital w Bostonie przez 13 lat śledził losy 19.220 kobiet. W chwili rozpoczęcia studium miały one 39 i więcej lat, a ich waga mieściła się w granicach normy. W okresie objętym badaniem ochotniczki przeważnie stopniowo tyły. Tym, które w ogóle nie piły alkoholu, a stanowiły one 38% próby, przybyło najwięcej kilogramów. Co więcej, istniała odwrotna zależność między wzrostem wagi i spożyciem alkoholu. Nawet po uwzględnieniu innych potencjalnie istotnych czynników, takich jak tryb życia, dieta, palenie czy aktywność fizyczna, nadal okazywało się, że panie pijące najmniej tyły najbardziej. Miłośniczki wina przybierały na wadze mniej niż panie decydujące się na wodę mineralną czy napoje dietetyczne. Wiele wskazuje na to, że kalorie z alkoholu są przetwarzane inaczej niż te z pokarmów. Zgodnie z jedną z teorii, w wyniku regularnej konsumpcji "procentów" w wątrobie wykształca się odrębny mechanizm ich rozkładania głównie do ciepła, a nie tłuszczu. Może więc w ten sposób udało się znaleźć odpowiedź na pytanie, czemu Francuzki i Włoszki mają godne pozazdroszczenia figury, choć przy obiedzie raczą się obowiązkowym kieliszkiem wina. Nie wolno przy tym zapominać, że jeśli idzie o linię, alkohol alkoholowi nierówny i czerwone wino lepiej przysłuży się wymiarom kobiet niż piwo czy wódka. Idealne rozwiązanie to umiarkowane picie, za które uznawano wychylanie ok. dwóch 150-ml lampek wina dziennie. Amerykańskie studium nie objęło co prawda mężczyzn, ale naukowcy uważają, że wnioski z najnowszych badań mogą się do nich nie odnosić. Te z obserwowanych kobiet, które sięgały po alkohol, często zastępowały nim pokarmy bogate w węglowodany, co pozwalało zmieścić się w zapotrzebowaniu energetycznym organizmu. Wg specjalistów z Bostonu, panowie wcale nie musieliby się zachować podobnie w analogicznej sytuacji.
  10. Przeprowadzone przez NASA analizy danych dotyczące temperatury przy powierzchni ziemi wykazały, że rok 2009 był drugim najcieplejszym rokiem od 1880. Na półkuli południowej był to najcieplejszy rok od tamtego czau. Archiwa NASA sięgają właśnie 130 lat wstecz. To wyraźna zmiana w porównaniu z 2008, który był najchłodniejszym rokiem dekady. Silne zjawisko La Niña ochłodziło wówczas tropikalne obszary Pacyfiku. W ciągu ostatnich kilkunastu miesięcy La Niña znacząco osłabła, przez co temperatury na planecie wzrosły. Dane będące w posiadaniu NASA wskazują, że najcieplejszy od 1880 był rok 2005. Drugie w kolejności są lata 1998, 2002, 2003, 2006, 2007 i 2009. James Hansen, dyrektor Goddard Institute for Space Studies (GISS), z którego pochodzą dane, mówi, że spoglądanie tylko na jeden rok zawsze pokazuje fałszywy obraz ze względu na duże różnice temperatur powodowane przez cykle El Niño i La Niña.. Dlatego należy badać temperatury w dłuższym okresie. Jeśli przyjrzymy się całym dekadom zobaczymy, że planeta rzeczywiście ogrzewa się. Okres od stycznia 2000 do grudnia 2009 to najcieplejsza dekada od roku 1880, kiedy to powstały instrumenty pozwalające na precyzyjne pomiary temperatur. Warto jednak zauważyć, że pomiędzy rokiem 1940 a 1970 mieliśmy do czynienia z ustabilizowaniem się temperatur. Później ponownie temperatura zaczęła rosnąć. Z danych GISS wynika, że w ciągu ostatnich 30 lat średnia temperatura rośnie o około 0,2 stopnia Celsjusza na dekadę. Od 1880 roku średnia globalna temperatura zwiększyła się o 0,8 stopnia Celsjusza. Klimatolog Gavin Schmidt z GISS zwraca uwagę na to, że powinniśmy pamiętać o jak małych wartościach tutaj mówimy. Różnica pomiędzy np. drugim a szóstym najgorętszym rokiem jest mniejsza niż ewentualne błędy pomiarowe. Rok 2009 pozostaje rekordowo ciepły pomimo niezwykle chłodnego grudnia. Wówczas to wysokie ciśnienie, które powstało nad Arktyką, zaburzyło przepływ powietrza na linii wschód-zachód, a jednocześnie spowodowało większy przepływ z północy na południe. To spowodowało, że Ameryka Północna była chłodniejsza niż zwykle, a Arktyka - cieplejsza. Hansen przypomina, że USA zajmują jedynie 1,5 procenta powierzchni planety, więc temperatura w Stanach Zjednoczonych nie wpływa zbytnio na temperatury globalne. GISS korzysta z trzech publicznie dostępnych źródeł danych: informacji z ponad tysiąca stacji meteorologicznych rozsianych po świecie, satelitarnych obserwacji temperatury powierzchni oceanów oraz danych ze stacji badawczej na Antarktydzie. Wiele instytutów badawczych korzysta z tych samych danych, ale używają innych technik analitycznych. Na przykład brytyjskie Met Office Hadley Centre w swoich analizach nie uwzględnia wielkich obszarów Arktyki i Antarktyki, gdyż jest tam niewiele stacji badawczych. Stąd też niewielkie roczne różnice pomiędzy danymi obu ośrodków. Jednak wyniki analiz całych dekad są niemal identyczne.
  11. W grocie skalnej pod Soborem Zaśnięcia Matki Bożej w Helsinkach powstaje prawdopodobnie najbardziej ekologiczne centrum bazodanowe na świecie. W samej grocie panuje niska temperatura, która wspomoże chłodzenie setek serwerów. Odbierane z nich ciepło będzie natomiast przechwytywane i kierowane do miejskiego systemu ogrzewania.Należące do firmy Academica centrum ma rozpocząć pracę już w styczniu. Instalacje składające się z tysięcy komputerów, takie jak np. centra bazodanowe Google'a, zużywają już około 1% światowej energii. I zużycie to niezwykle szybko rośnie. To generuje wysokie koszty dla operatora komputerów oraz oznacza zwiększenie zanieczyszczenia środowiska odpadami z przemysłu produkującego energię. Jej olbrzymie zużycie wynika nie tylko z potrzeb obliczeniowych. Nie więcej niż 45% energii zużywanej przez typową serwerownię to energia konieczna do przeprowadzenia obliczeń. Reszta, co najmniej 55% jest używana głównie przez systemy chłodzące. Właściciele centrów obliczeniowych samodzielnie nie rozwiążą tego problemu. Jednak coraz częściej myśli się o podpisywaniu umów z firmami, które zajmują się dostarczaniem energii cieplnej. Mogą one odbierać nadmiarowe ciepło z serwerów. To pozwoli na obniżenie kosztów operacyjnych centrum bazodanowego i zmniejszenie emisji zanieczyszczeń. Przedstawiciele Academiki obliczają, że dzięki podłączeniu nowego centrum bazodanowego do miejskiej sieci ciepłowniczej ich firma zaoszczędzi rocznie 375 000 euro.
  12. Max Planck sformułował prawo o promieniowaniu ciała doskonale czarnego, które opisuje w jaki sposób energia jest rozpraszana, a zatem w jaki sposób np. energia cieplna z jednego ciała może przechodzić do drugiego ciała. Planck uważał jednak, że jego prawo może nie działać w miniaturowych systemach i zastrzegał, że dotyczy ono stosunkowo dużych obiektów. Przez całe dziesięciolecia naukowcom nie udało się sprawdzić ważności prawa Plancka w bardzo małych systemach. Dokonali tego dopiero naukowcy z MIT-u i odkryli, że transfer ciepła pomiędzy dwoma blisko położonymi obiektami może być nawet 1000-krotnie większy, niż dopuszcza to prawo Plancka. Dotychczas nikomu nie udało się przeprowadzić odpowiedniego eksperymentu, gdyż trudno jest zbliżyć do siebie dwa obiekty na wymaganą odległość tak, by się nie dotykały. Uczeni rozwiązali ten problem wykorzystując nie dwie płaskie powierzchnie, a jeden płaski obiekt oraz szklaną kulkę, której pozycję było łatwiej kontrolować. Jeśli mamy dwie równoległe płaszczyzny, to bardzo trudno jest zbliżyć je na odległość nanometrów tak, by żadne ich części nie zetknęły się ze sobą - mówi profesor Gang Chen. Kulka natomiast styka się z płaszczyzną tylko w jednym punkcie, łatwiej więc ją kontrolować. Profesor przyznaje, że przez lata próbował zbliżyć dwie płaszczyzny, ale najmniejsza odległość, w której nie stykały się, wynosiła mikron (jedna milionowa metra). Użycie kulki pozwoliło na zbliżenie przedmiotów na odległość 10 nanometrów (10 miliardowych metra), a więc stukrotnie mniejszą, niż odległość pomiędzy płaszczyznami. W przyszłości chce je zbliżyć jeszcze bardziej. Gdy już zbliżono oba przedmioty, naukowcy wykorzystali mikroskop sił atomowych do precyzyjnego pomiaru zmian temperatury obu ciał. Badania Chena tylko z pozoru przypominają zabawę w udowodnienie teorii. Przeprowadzenie laboratoryjnego eksperymentu pokazało, że przewidywania o złamaniu prawa Plancka w skali nano są prawdziwe. To z kolei niesie ze sobą ważne konsekwencje np. dla produkcji dysków twardych. We współczesnych HDD głowice odczytująco-zapisujące znajdują się w odległości 5-15 nanometrów od powierzchni. Głowice rozgrzewają się, a specjaliści od dawna zastanawiają się, czy tego ciepła nie udałoby się wykorzystać do kontrolowania odległości głowicy od dysku. Prace Chena przyczynią się też do rozwoju urządzeń termofotowoltaicznych, pozwalając na lepsze odzyskiwanie odpadowej energii cieplnej. Przydadzą się także innym naukowcom, którzy zyskali dowód, iż prawo Plancka nie stanowi w laboratorium fundamentalnej granicy i warto kontynuować eksperymenty tego typu. Tym bardziej, że mogą one pomóc w zrozumieniu pewnych podstawowych praw fizyki.
  13. Czy ciepłota ciała organizmów zmiennocieplnych jest całkowicie zależna od temperatury otoczenia? Niezupełnie. Okazuje się, że nawet zwierzęta tak proste jak nicienie potrafią aktywnie dostosować tempo własnego metabolizmu do ciepła pożywki, w której są hodowane. Co więcej, mogą w ten sposób kontrolować... tempo własnego starzenia. Zgodnie z uznaną powszechnie teorią, tempo metabolizmu organizmów zmiennocieplnych jest całkowicie zależne od ilości docierającego do nich ciepła i przypomina przebeg prostych reakcji chemicznych zachodzących w środowisku nieożywionym. Zwiększenie temperatury, w której żyją proste zwierzęta, powinno więc prowadzić do szybszego "zużywania się" komórek nicieni, czyli ich starzenia. Jak się jednak okazuje, zależność ta jest bardziej złożona, niż myślano. Przez wiele lat liczne badania przynosiły pozorne "dowody" na poparcie popularnej tezy. Wiadomo było na przykład, że nicienie Caenorhabditis elegans przebywające w temperaturze 25°C umierają szybciej od osobników żyjących w temperaturze 20 stopni. Okazuje się jednak, że opisywane zjawisko jest bardziej skomplikowane, niż mogłoby się wydawać. Hipotezę o całkowitej pasywności C. elegans wobec zmian temperatury obalili badacze z Uniwersytetu Kalifornijskiego. Odkryli oni, że receptory badające temperaturę otoczenia pozwalają tym prostym zwierzętom na aktywną reakcję na ciepłotę otoczenia. Mechanizm ten nie daje co prawda pełnej kontroli nad równowagą pomiędzy ilością ciepła zatrzymywanego przez organizm i oddawanego do otoczenia, lecz wystarcza on do regulowania tempa niektórych reakcji wchodzących w skład metabolizmu. Nicień może w ten sposób wpływać na ilość ciepła wytwarzanego przez jego ciało. Jak ustalili badacze z Kalifornii, reakcja organizmu na temperaturę otoczenia jest wyzwalana dzięki wydzielaniu sterydów. Dowiedziono tego na podstawie eksperymentów, w których nicienie modyfikowano genetycznie w taki sposób, by nie wytwarzały hormonów z tej grupy. Zakończyły się one upośledzeniem reakcji na ciepłotę pożywki, w której hodowano zwierzęta. Podobne efekty dało niszczenie receptorów ciepła. Dalsze badania wykazały, że podgrzanie pożywki prowadziło do aktywacji genu daf-9. Jego aktywność prowadzi do spowolnienia metabolizmu, dzięki czemu czas życia zwierzęcia ulega wydłużeniu. Niestety, dotychczas nie udało się zidentyfikować analogicznych mechanizmów u ludzi. Badania na myszach wykazały jednak, że jeśli "oszuka się" ich organizmy, by reagowały na normalną temperaturę otoczenia jak na temperaturę znacznie podwyższoną, starzenie zachodziło u nich znacznie wolniej. Być może pewnego dnia podobna technika zostanie dostosowana do potrzeb metabolizmu człowieka...
  14. Badacze z Uniwersytetu Tokijskiego donoszą o stworzeniu mikroskopijnych kapsułek, które umożliwiają precyzyjny pomiar temperatury cieczy na podstawie obserwacji fluorescencji. Ponieważ materiał wykorzystany do ich produkcji jest nietoksyczny, najważniejszym zastosowaniem wynalazku będzie najprawdopodobniej ustalanie temperatury wewnątrz pojedynczych komórek. Miniaturowe sensory, opisane na łamach czasopisma Journal of American Chemical Society, składają się z dwóch głównych elementów połączonych ze sobą w formie nanożelu. Pierwszym z nich jest związek nazwany DBD-AA, należący do tzw. fluoroforów, czyli związków zdolnych do fluorescencji. Drugim jest polimer o nazwie polyNIPAM, którego cząsteczki są zdolne do gwałtownej zmiany struktury wewnętrznej pod wpływem zmian temperatury. Działanie "termometru" jest wypadkową cech obu związków. DBD-AA wytwarza światło po oświetleniu niebieskim laserem, lecz jego fluorescencja gwałtownie słabnie pod wpływem wody. Dostęp tej ostatniej jest z kolei kontrolowany przez polyNIPAM, który pęcznieje w niskich temperaturach, ułatwiając przenikanie wody do wnętrza kapsułek. Dochodzi wówczas do tłumienia światła wydzielanego przez fluorofor. Odwrotnie dzieje się po ogrzaniu sensora - trójwymiarowa sieć utworzona przez cząsteczki polyNIPAM ulega zaciśnięciu, co prowadzi do usunięcia wody i przywrócenia DBD-AA zdolności do emisji światła. Zjawisko to zachodzi w sposób bardzo przewidywalny, co pozwala na pomiar temperatury z dokładnością do 0,5, a nawet 0,3°C. Dodatkową zaletą opracowanych kapsułek jest ich rozpuszczalność w wodzie - cecha, której nie posiada prawdopodobnie żaden konkurencyjny prototyp. Jest to niezwykle istotne, gdyż umożliwia - w połączeniu z brakiem toksyczności składników nanożelu - wprowadzenie "termometru" do wnętrza żywych komórek. Co więcej, poziom fluorescencji jest niezależny od pH otoczenia, co dodatkowo zwiększa wiarygodność pomiarów. Japońscy naukowcy planują na najbliższą przyszłość opracowanie zmodyfikowanej wersji czujników, które mogłyby zostać wprowadzone do ściśle określonych rejonów komórki. Pozwoliłoby to na dalsze zwiększenie dokładności pomiarów, co znacząco ułatwiłoby prowadzenie badań z zakresu biologii.
  15. Zwykle, gdy podgrzewamy jakąś substancję, staje się ona miękka. Jednak grupie uczonych pod przewodnictwem profesora Dwayne'a Millera z University of Toronto udało się uzyskać odmienny, niezgodny z intuicją efekt. Naukowcy podgrzali złoto w ten sposób, że stało się ono twardsze. Osiągnęli to błyskawicznie zwiększając temperaturę metalu. W ciągu sekundy rosła ona o więcej niż milion stopni. Złoto było podgrzewane tak szybko, że elektrony nie były w stanie zaabsorbować takiej ilości energii i ją traciły. To z kolei oznaczało, że znajdowały się one średnio dalej od jąder atomów, a więc zmniejszeniu ulega efekt ekranowania przez elektrony. Powiązania pomiędzy atomami stają się silniejsze - mówi Miller. Kryształ złota składa się z jonów złota i słabo powiązanych elektronów, które ekranują siły odpychania pomiędzy jonami. Dzięki temu jony się przyciągają. W przeciwieństwie do innych materiałów, podgrzewanie elektronów złota za pomocą ultrakrótkich impulsów laserowych zwiększa siły oddziaływania pomiędzy jonami - wyjaśnia Ralph Ernstorfer z Instytutu Maksa-Plancka. Dodaje, że teoretycznie już jakiś czas temu przewidziano wystąpienie tego efektu, a obecnie po raz pierwszy go zaobserwowano.
  16. Z ubiegłorocznego raportu amerykańskiej Agencji Ochrony Środowiska (EPA) dowiadujemy się, że w samych tylko Stanach Zjednoczonych centra bazodanowe zużywają 61 miliardów kilowatogodzin energii. To ilość wystarczająca do zasilenia przez rok 5,8 milionów (czyli ponad 5%) amerykańskich gospodarstw domowych. Energia elektryczna zużywana przez centra bazodanowe kosztuje ich właścicieli 4,5 miliarda dolarów rocznie. Eksperci z EPA przewidują, że do roku 2011 ilość energii potrzebnej centrom bazodanowym wzrośnie do ponad 100 miliardów kilowatogodzin, co będzie kosztowało ich właścicieli około 7,4 miliarda USD. Nic więc dziwnego, że nawet taki gigant jak IBM szuka możliwości zaoszczędzenia pieniędzy. Inżynierowie z IBM-owskiego Zurich Research Laboratory uważają, że koszty zużycia energii przez centra bazodanowe można obniżyć o 50%. Chcą tego dokonać dzięki chłodzeniu komputerów wodą i używaniu jej do ogrzewania pobliskich domów. Podczas konferencji SCO08 zaprezentowali prototypowy system, który ma trafić na rynek w ciągu pięciu najbliższych lat. Bruno Michel, jeden z menedżerów wspomnianego laboratorium, poinformował o stworzeniu centrum bazodanowego, które odzyskuje 85% ciepła emitowanego przez komputery, a jednocześnie zużywa o połowę mniej energii niż analogiczne centra. Komputery w prototypowym centrum chłodzone są wodą płynącą w mikrokanalikach znajdujących się wewnątrz maszyn. Ogrzana w ten sposób woda jest pompowana do sieci ciepłowniczej i ogrzewa pobliskie domy. Michel informuje, że centrum bazodanowe potrzebujące do pracy 10 megawatów energii jest w stanie ogrzać nawet 700 domów. Największym wyzwaniem, jak przyznał naukowiec, było ustalenie optymalnej temperatury wody. Musiała ona być wystarczająco niska, by ochłodzić komputery, a jednocześnie na tyle ciepła, by ogrzać domy. Najlepszym wyjściem okazało się chłodzenia komputerów... ciepłą wodą. Do wnętrza maszyn trafia woda o temperaturze 35 stopni Celsjusza. Na wyjściu jej temperatura wynosi już 60 stopni. Profesor Randy Katz z Uniwersytetu Kalifornijskiego w Berkeley zauważa, że podczas chłodzenia centrum bazodanowego powietrzem mamy do czynienia z przechładzaniem pomieszczeń. Chcemy bowiem, by najgorętsze części komputera były dobrze chłodzone, chłodzimy więc wszystko. System chłodzenia wodnego doprowadza wodę bezpośrednio do miejsc, które trzeba schłodzić, nie marnujemy więc energii na niepotrzebne chłodzenie innych części i całego pomieszczenia. Oczywiście centra bazodanowe były już wcześniej chłodzone wodą. Jednak była ona w nich ogrzewana jedynie do temperatury 45 stopni Celsjusza, czyli zbyt niskiej, by ogrzać domy. Co prawda komputery, z których ciepło było odbierane przez chłodniejszą wodę pracowały od 5 do 7 procent bardziej wydajnie, jednak całe ciepło było marnotrawione, więc bilans ekonomiczny nie był korzystny. Bruno Michel przyznaje, że koszty budowy centrum bazodanowego chłodzonego wodą są o 10% wyższe, niż chłodzonego powietrzem. Jeśli natomiast spróbujemy przystosować już istniejące centra do chłodzenia wodą, koszty będą wyższe o 30%. Jednak korzyści związane z odzyskiwaniem i sprzedażą energii gwarantują, że wyższa początkowa cena zwróci się w ciągu 1-3 lat. Profesor Katz zauważa, co prawda, że chłodzenie powietrzem jest coraz bardziej udoskonalane, jednak przyznaje, że istnieje potrzeba opracowania alternatywnego sposobu odbierania ciepła z centrów bazodanowych. Wraz z postępem miniaturyzacji we wnętrzach komputerów umieszczanych jest coraz więcej podzespołów, konieczne jest więc coraz bardziej efektywne chłodzenie.
  17. Postępujące z wiekiem osłabienie zdolności do odczuwania temperatury może powodować bezsenność - twierdzą naukowcy. O swoim odkryciu donoszą na łamach czasopisma Sleep. W swojej publikacji autorzy informują, że u wielu z nas z wiekiem spada zdolność do subiektywnej oceny temperatury otoczenia. Jak twierdzą, efekt ten jest widoczny szczególnie wyraźnie u osób cierpiących na bezsenność. Zdaniem badaczy sugeruje to, że problemy z zasypianiem mogą być efektem niedostosowania temperatury otoczenia do potrzeb organizmu. Aby potwierdzić prawdziwość postawionej tezy, przeprowadzono eksperyment. Wzięło w nim udział szesnaście osób starszych (średnia wieku: 65,8 lat), spośród których osiem cierpiało na bezsenność. Pacjentów ubrano w specjalny kombinezon umożliwiający zmianę temperatury skóry oraz podłączono do aparatury rejestrującej parametry związane ze snem, takie jak ruch gałek ocznych, intensywność wymiany gazowej czy aktywność elektryczna mózgu i serca. Badacze zaobserwowali, że stopniowe podnoszenie temperatury wewnątrz kombinezonu stosunkowo szybko zaczynało przeszkadzać osobom bez zaburzeń snu, zaś pacjenci cierpiący na bezsenność wytrzymywali wyższą temperaturę bez uczucia dyskomfortu. Co ciekawe jednak, łagodne ogrzewanie skóry przyśpieszało zasypianie w obu grupach, zaś jej ochładzanie pomagało w zaśnięciu wyłącznie osobom cierpiącym na bezsenność. Dotychczas nie udało się wyjaśnić przyczyn tego interesującego zjawiska. Jak tłumaczy dr Roy Raymann, specjalista psychofizjologii z holenderskiego Narodowego Instytutu Nauk o Układzie Nerwowym, wyniki są nieoczekiwane, lecz niosą ze sobą dobrą wiadomość. Byliśmy pozytywnie zaskoczeni, że choć staruszkowie cierpiący na bezsenność mają problemy z odczuwaniem temperatury własnej skóry, niewielkie jej zmiany mimo wszystko efektywnie ułatwiają zaśnięcie - twierdzi. Autorzy badania sugerują, że niektórzy seniorzy mogą nie odczuwać potrzeby zmiany odzieży lub pościeli na cieplejszą lub bardziej przewiewną, choć ich organizmy mogą tego potrzebować. Mogą mieć przez to problemy z zasypianiem. Na szczęście wiele wskazuje na to, że w wielu przypadkach wystarczą naprawdę subtelne zmiany, jak np. stosowanie koca elektrycznego, by zapadnięcie w sen znów było proste. Zasugerowano także, by osoby takie brały gorącą kąpiel na około 1,5-2 godziny przed snem. Powinna ona ogrzać ich ciała i przyśpieszyć zasypianie.
  18. Naukowcy z New York Medical College odkryli, dlaczego ptaki, w przeciwieństwie do ssaków, nie są w stanie wydajnie wytwarzać ciepła w tkance tłuszczowej. Być może odkrycie to nie byłoby tak pasjonujące gdyby nie fakt, że przyczyna tego zjawiska może być zarazem jednym z powodów... wyginięcia dinozaurów. Ludzie, podobnie jak pozostałe ssaki, wytwarzają w swoich organizmach dwa rodzaje tkanki: żółtą i brunatną. Pierwsza z nich jest dobrze znana wszystkim - to w niej odkłada się nadmiar energii zmagazynowanej w postaci cząsteczek tłuszczu. Drugi typ tkanki tłuszczowej ma inną funkcję. Zachodzi w niej produkcja białka zwanego termogeniną, należącego do grupy tzw. rozprzęgaczy. Ich rola polega na blokowaniu powstawania związków wysokoenergetycznych, które mogłyby zostać następnie zużyte jako nośnik energii. Zamiast tego dochodzi do rozproszenia energii w postaci ciepła. Z tego powodu nie powinien dziwić fakt, że najwięcej brunatnej tkanki tłuszczowej wytwarzają organizmy narażone na wychłodzenie, przede wszystkim niedźwiedzie brunatne. U ludzi brunatna tkanka tłuszczowa występuje u noworodków oraz - w znacznie mniejszej ilości - u dorosłych. Gen kodujący termogeninę zwany jest UCP1. Stwierdzono, że choć występuje on u ssaków, u ptaków został w drodze ewolucji wyeliminowany. Podobna sytuacja ma miejsce u jaszczurek. Porównanie tych danych z danymi na temat historii ewolucji kolejnych gatunków wykazało, że do usunięcia wspomnianego genu niemal na pewno doszło u wspólnego przodka jaszczurek i ptaków. Wiadomo także, że ten sam przodek w drodze ewolucji dał początek linii rozwojowej dinozaurów. Oznacza to, że najprawdopodobniej także te wielkie gady były pozbawione zdolności syntezy termogeniny. Gdyby rzeczywiście tak było, oznaczałoby to znacznie wyższą podatność na spadek temperatury otoczenia, np. w wyniku pojawienia się na niebie gęstych chmur po uderzeniu w powierzchnię Ziemi meteorytu. Szczegóły wykonanych badań opisano w najnowszym numerze czasopisma BMC Biology.
  19. Japońska firma ForicaFoods produkuje tzw. żywność ratunkową, która przyda się zarówno podczas katastrof naturalnych, jak i zwykłego wyjazdu pod namiot. Rescue Foods zaopatrzono w dodatkowe opakowanie (przypomina zamykane na zatrzask plastikowe woreczki z mydłem w płynie czy szamponem), umożliwiające podgrzanie posiłku, gdy nie ma dostępu do wody ani prądu. Ciepło powstaje w wyniku reakcji między wodą a sproszkowanym glinem. W ten sposób udaje się osiągnąć temperaturę 98 stopni Celsjusza. Danie jest gotowe po 20-30 minutach. W skład każdego zestawu wchodzi zupa, np. miso, ryż i danie główne. Nie zapominano też o sztućcach. Gdy przechowuje się go w temperaturze pokojowej, nadaje się do użytku przez ok. 2,5 roku.
  20. Już wkrótce termin bezproduktywne siedzenie może przejść do lamusa. Wszystko za sprawą naukowców z Instytutu Fraunhofera, którzy opracowali technologię, pozwalającą na uzyskiwanie energii elektrycznej z ciepła ludzkiego ciała. Obecnie energia ta jest marnowana, a przecież mogłaby posłużyć np. do ładowania baterii czy bezpośredniego zasilania urządzeń przenośnych. Doktor Peter Spies i jego zespół ulepszyli półprzewodnik zwany generatorem termoelektrycznym, którzy tworzy energię elektryczną korzystając z różnicy temperatur. Zwykle do skutecznej pracy potrzebuje on kilkudziesięciostopniowej różnicy. Tymczasem zwykle różnica pomiędzy ciepłem ludzkiego ciała a otoczeniem wynosi kilka stopni. Tak mała różnica powoduje, że generator jest w stanie wyprodukować prąd o napięciu 250 miliowoltów, a to zdecydowanie zbyt mało. Zespół Spiesa znalazł na to sposób. Naukowcy wbudowali w generator pompę ładunku, która przechowuje napięcie do czasu, gdy osiągnie ono wartość 1,8 wolta. Po jej osiągnięciu włącza się wewnętrzny tranzystor, który dostarcza napięcie do urządzenia. Matthias Ueltzen, inżynier pracujący dla jednej z firm produkujących generatory termoelektryczne, stwierdził: Pomysł, by uzyskiwać energię elektryczną z ciepła ludzkiego ciała jest wspaniały. Dodaje jednak, że dużym problemem jest mała różnica temperatury pomiędzy ludzkim ciałem a otoczeniem. Tylko mała część przepływającego ciepła może zostać zamieniona na energię elektryczną – dodaje. Dlatego też nowa technologia sprawdzi się podczas zasilania urządzeń, które nie potrzebują wiele energii. Już w tej chwili uczeni z Instytutu Fraunhofera skonstruowali bezprzewodowe czujniki, które można przyczepić do ciała pacjenta i przesyłać informacje o funkcjach organizmu. Nowa technologia może być wykorzystana również do zasilania aparatów słuchowych, przedłużania pracy baterii telefonów komórkowych czy odtwarzaczy MP3. Opracowane przez Spiesa urządzenie może posłużyć w przyszłości do odzyskania części energii z rozgrzewających się elementów lodówek czy klimatyzatorów. Obecnie naukowcy pracują nad zminiaturyzowaniem urządzenia, którego obecne wymiary wynoszą 2x2 cm.
  21. Psycholodzy badali zjawisko ziewania i stwierdzili, że nie robimy tego, ponieważ musimy się dotlenić, ale po to, by ochłodzić mózg. Manipulowano stężeniem tlenu i dwutlenku węgla we krwi, ale nie udało się w ten sposób spowodować ziewania. Wiadomo natomiast, że mózg zużywa jedną trzecią dostarczanej organizmowi energii, a podczas spalania kalorii powstaje ciepło. Ogrzany narząd trzeba więc jakoś ostudzić. Andrew i Gordon Gallup z Uniwersytetu w Albany podkreślają, że ludzki mózg pracuje wydajniej, gdy jego temperatura jest niższa. Ziewanie usprawnia przepływ krwi i doprowadzanie chłodnego powietrza. Aby potwierdzić lub obalić teorię, że ziewanie pojawiło się w toku ewolucji jako mechanizm chłodzenia mózgu, psycholodzy odtwarzali studentom college'u taśmy z nagraniami ziewających osób. Sami sumowali w tym czasie, ile razy widzowie zarazili się ziewaniem od osoby uwiecznionej na taśmie. W jednym eksperymencie ziewało 50% osób poinstruowanych, by oddychać normalnie lub przez usta. Ludzie, którym kazano oddychać tylko przez nos, nie ziewali natomiast wcale. W drugim eksperymencie wolontariusze robili sobie na czole okłady. Miały one różną temperaturę. Były chłodne, gorące lub w temperaturze otoczenia. Osoby z zimnym okładem nie ziewały, podczas gdy ludzie z ciepłymi kompresami tak. Naczynia krwionośne jamy nosowej i twarzy doprowadzają do mózgu chłodną bądź ciepłą krew. Gdy ochłodzimy więc czoło albo będziemy oddychać nosem, oziębimy krew, co wyeliminuje, a przynajmniej zmniejszy chęć ziewania. Ostatnie badania powiązały stwardnienie rozsiane (SD) z dysfunkcją układu termoregulacji. Nadmierne ziewanie jest jednym z objawów tej choroby, a niektórzy pacjenci wspominają o czasowym zniesieniu symptomów po ziewnięciu. Naukowcy z Albany twierdzą, że ziewanie nie doprowadza ani nie poprzedza snu, ale odracza go w czasie, ma bowiem pobudzić mózg do lepszego działania. Zarażanie się ziewaniem od innych członków grupy miało prawdopodobnie w przeszłości wzmagać czujność, aby nie dać się zaskoczyć niebezpieczeństwu.
  22. Choć trudno w to uwierzyć, jeszcze niedawno nie wiedziano, jak zwierzęta wyczuwają i oceniają temperaturę. Wielkie postępy poczyniono w ciągu ostatnich 10 lat, kiedy to naukowcy odkryli 4 kanały jonowe wrażliwe na gorąco i dwa na zimno. Ciągle jednak pozostawało tajemnicą, w jaki sposób tylko 6 kanałów może objąć szeroki zakres temperatur i wykrywać niewielkie różnice — opowiada Jie Zheng z Wydziału Fizjologii i Biologii Błon na UC Davis School of Medicine. Zespół badawczy ujawnił, że w warunkach laboratoryjnych kultur komórkowych podjednostki poszczególnych kanałów jonowych mogą się zbierać i tworzyć nowe kanały. Jeśli przyjmiemy, że podobny proces zachodzi w normalnych komórkach, natrafiliśmy na ślad prawdopodobnego mechanizmu termowrażliwości, typowego dla wszystkich komórek zwierzęcych. Odkryliśmy, że kombinując na rozmaite sposoby podjednostki kanałów, otrzymamy dużo więcej niż 6 receptorów temperatury. Naukowcy zajmowali się kationoselektywnymi kanałami jonowymi TRP (ang. transient receptor potential). Jak się okazało, 6 z 20 kanałów odpowiadało za odczuwanie temperatury. "Konkluzja wcześniejszych badań była taka, że podjednostki różnych kanałów TRP [reagujących na ciepło i chłód — przyp. red.] nie gromadzą się razem". Amerykanie posłużyli się nową metodą, którą opracowano w 2006 roku. Wykorzystując bazujący na spektroskopii rezonansowy transfer energii wzbudzenia fluorescencji, mogli obserwować pod mikroskopem oddziaływania między podjednostkami kanałów jonowych. Dzięki temu byliśmy w stanie skupić się tylko na sygnałach z błony plazmowej. Co zobaczyliśmy? Podjednostki kanałów wrażliwych na gorąco łączyły się z podjednostkami innych ciepłolubnych kanałów. W ten sposób zamiast 4 mieliśmy 256 różnych kombinacji i nowych kanałów [...]. Teraz szukamy odpowiedzi na pytanie, czy rzeczywiście cechuje je różna wrażliwość temperaturowa. Wierzymy, że tak, ale musimy to wykazać. Ponieważ te same komórki reagują na temperaturę i ból, badania zespołu Zhenga mogą pomóc w opracowaniu nowych środków przeciwbólowych.
×
×
  • Dodaj nową pozycję...