Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Nokia pracuje nad prototypowym telefonem komórkowym, którego nigdy nie trzeba będzie ładować. Markku Rouvala z Nokia Research Centre w Cambridge mówi, że obecna w środowisku emisja elektromagnetyczna - pochodząca z masztów telewizyjnych, nadajników Wi-Fi, masztów telefonii komórkowej i innych źródeł - jest wystarczająco duża, by zamienić ją na energię elektryczną wystarczającą do całkowitego naładowania baterii telefonu.

Opracowany już prototyp jest w stanie zebrać z otoczenia 50 miliwatów mocy. To wystarczy by powoli się ładował lub nieprzerwanie pracował w stanie oczekiwania.

Prototyp zamienia fale elektromagnetyczne w sygnały elektryczne za pomocą dwóch pasywnych obwodów. Częstotliwość ich działania wynosi od 500 MHz do 10 GHz, a więc pokrywa się z częstotliwością wielu sygnałów radiowych. W ten sposób zwiększono ilość energii, którą może pobrać urządzenie.

Nokia na razie nie zdradza szczegółów swojej technologii, ale Rouvala mówi, że telefony w nią wyposażone mogą trafić na rynek już za 3-4 lata. Jeśli Nokii się uda, będziemy świadkami sporych zmian na rynku przenośnych gadżetów. Niezwiązani z Nokią specjaliści, którzy zajmują się badaniami na podobnym polu, mówią, że 50 miliwatów to naprawdę sporo. Obecnie typowy odtwarzacz MP3 potrzebuje do pracy 100 miliwatów, a większość czasu spędza w trybie oszczędnościowym. Niewykluczone, że w przyszłości wielu niewielkich urządzeń elektronicznych nigdy nie będziemy musieli podłączać do gniazdka.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Trudno o bardziej oczywistą idęę: jednymi z pierwszy radioodbiorników były radia detektorowe, które nie wymagały zasilania: zasilały się z energii fali, do której były dostrojone. Dziś, przy przesyceniu "eteru" falami radiowymi to musiało się pojawić i od dawna na to czekałem.

 

Do rozwiązania są "tylko" problemy techniczne: czyli wykorzystanie fal różnych długości i osiągnięcie odpowiedniej wydajności. No, ale skoro wreszcie się za to zabrano, to tylko (mam nadzieję) kwestia czasu, zwłaszcza, że jednocześnie pracuje się nad energooszczędnością urządzeń. Trzymam kciuki.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tylko ta energia i tak musi zostać gdzieś wytworzona

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tylko ta energia i tak musi zostać gdzieś wytworzona

Energia jest wytwarzana tak czy inaczej w elektrowniach we wszelkich nadajnikach... ale się większość jej marnuje.

 

Jakoś nie jestem zachwycony że tego typu urządzenia mają wogóle rację bytu... bo oznacza to że mnóstwo energii ulatuje z nadajników co z pewnością nie jest ani zdrowe ani ekonomiczne.

 

btw. Już wiem jak czuje się kurczak pieczony w mikrofali :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pomysł Nokii jest wg mnie genialny! O recyklingu materiałów już słyszałem, teraz przyszedł czas na recykling promieniowania :P Pozostaje pytanie, czy tysiące podobnych urządzeń na małym obszarze nie sprawią, że trzeba będzie zacząć zwiększać moc nadajników. Zasada zachowania energii nie spi.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zaczną się procesy: oskarżeni stali na rynku we Wrocławiu i tłumili publiczny hot spot :P

Swoją drogą nikt za darmochę mocy zwiększać nie będzie. Ciekawe jak jest to rozwiązane prawnie. Czy energia opłacona i przetworzona z elektrycznej na elektromagnetyczną jest dalej własnością poborcy? Wypuszczona w eter oczywiście.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ha, kapitalna gra słów: tłum tłumi. :P

Wydaje mi się, że urządzenia odbiorcze (wszystko jedno, czy odbierają informację, czy samą energię nie powinny przeszkadzać. Podobnie jak wiatraki nie zabierają wiatru, musiło by ich stać w kupie chyba niewykonalnie dużo.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No ale popatrz np. na rynek dużego miasta. Jeżeli tam nie będzie zbyt wiele hot-spotów, a pełno takich komórek, to kto wie. Należałoby to dokładnie policzyć.

 

A ja jeszcze raz podzielę się refleksją, bo myślałem o tym zagadnieniu co napisałem wcześniej. Jednak jeżeli ja siądę z laptopem pod czyimś domem, to jeżeli wbrew woli właściciela podłączę się do jego sieci to złamię prawo. Jednak mój komputer osłabia pole wytwarzane przez np. router poprzez ustanawianie samej łączności - wykrywania sieci. I to już jest legalne. I nawiązując teraz do komórek, można by uznać to właśnie za taką detekcję pola. Śmieszna sprawa.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Rozmawianie przez telefon komórkowy przez 30 lub więcej minut w tygodniu jest powiązane ze znacznym wzrostem ryzyka nadciśnienia, poinformowali chińscy naukowcy na łamach European Heart Journal – Digital Journal. Decydująca dla zdrowia serca jest liczba minut spędzona na rozmowie. Im więcej minut rozmawiamy, tym większe ryzyko. Liczba lat użytkowania telefonu czy też używanie zestawów głośnomówiących nie miały wpływu na ryzyko rozwoju nadciśnienia. Konieczne są dalsze badania, by potwierdzić uzyskane przez nas wyniki, mówi profesor Xianhui Quin z Południowego Uniwersytetu Medycznego w Kantonie.
      Nadciśnienie to jeden z najważniejszych czynników rozwoju chorób układu krążenia i zgonów na całym świecie. Cierpi nań około 1/5 ludzkości, co pokazuje, jak ważne są badania w kierunku zidentyfikowania przyczyn nadciśnienia.
      Telefony komórkowe są najbardziej chyba rozpowszechnionym gadżetem elektronicznym na Ziemi. Powstaje zatem pytanie o bezpieczeństwo ich użytkowania, szczególnie przez osoby korzystające z nich bardzo intensywnie. Niektóre badania prowadzone na hodowlach komórkowych sugerują, że długoterminowa ekspozycja na fale elektromagnetyczne emitowane przez telefony komórkowe prowadzi do stresu oksydacyjnego, stanu zapalnego czy uszkodzenia DNA. Chińscy uczeni zaczęli zastanawiać się, czy w ten sposób telefony mogą przyczyniać się do rozwoju nadciśnienia. Już wcześniej przeprowadzone badania wykazały, że 35-minutowa ekspozycja prawej półkuli mózgu na pole elektromagnetyczne emitowane przez telefon komórkowy prowadzi do wzrostu ciśnienia spoczynkowego o 5–10 mmHg. Jednak były to badanie prowadzone na małej próbce 10 osób, a jego głównym celem było sprawdzenie krótkoterminowego wpływu telefonów na ciśnienie.
      Chińczycy przeanalizowali dane z UK Biobank dotyczące 212 046 osób w wieku 37–73 lat. W momencie rejestracji w bazie danych żadna z tych osób nie miała zdiagnozowanego nadciśnienia. Za użytkowników telefonów komórkowych uznano osoby, które co najmniej raz w tygodniu przez nie rozmawiały. Losy badanych śledzono średnio przez 12 lat. Po tym czasie nadciśnienie zdiagnozowano u 13 984 osób. Gdy następnie sprawdzono częstotliwość użytkowania telefonów przez te osoby, okazało się, że rozmowa przez telefon przez 30 lub więcej minut w tygodniu była powiązana z o 12% wyższym ryzykiem rozwoju nadciśnienia, niż u badanych, którzy rozmawiali krócej niż 30 minut.
      W swoich badaniach naukowcy uwzględnili takie czynniki jak płeć, wiek, BMI, rasę, rodzinną historię nadciśnienia, poziom wykształcenia, palenie papierosów, poziom lipidów i glukozy we krwi, używane leki i szereg innych czynników.
      Z badań dowiadujemy się, że – generalnie rzecz biorąc – użytkownicy telefonów komórkowych narażeni są na o 7% wyższe ryzyko rozwoju nadciśnienia w porównaniu do osób, które telefonów nie używają, a ci, którzy rozmawiają przez co najmniej 30 minut w tygodniu, rozwijają nadciśnienie o 12% częściej, niż ci, którzy rozmawiają krócej. Ryzyko rośnie wraz z czasem spędzanym na rozmowie. Na przykład jeśli rozmawiamy przez 1–3 godzin w tygodniu, to jest ono wyższe o 13%, przy rozmowach trwających 4–6 godzin wzrasta o 16%, a jeśli rozmawiamy więcej niż 6 godzin tygodniowo, to ryzyko rozwoju nadciśnienia jest o 25% większe, niż przy rozmowach trwających krócej niż 30 minut w tygodniu.
      Na poziom ryzyka wpływa też profil genetyczny. Osoby, które mają genetyczne predyspozycje do rozwoju nadciśnienia i rozmawiają przez telefon ponad 30 minut w tygodniu narażają się na o 33% wyższe ryzyko niż ci, którzy nie mają predyspozycji genetycznych i rozmawiają krócej niż 30 minut tygodniowo.
      Nasze badania sugerują, że rozmawianie przez telefon komórkowy nie zwiększa ryzyka rozwoju nadciśnienia, o ile rozmawiamy krócej niż przez 30 minut w tygodniu, mówi profesor Qin.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Komórki wytwarzają wiele różnych związków i kompleksów, które mogą zajmować aż do 40% jej wnętrza. Z tego powodu wnętrze komórki jest niezwykle zatłoczonym środowiskiem, w którym charakteryzacja reakcji biochemicznych jest skomplikowana i złożona, pomimo ogromnego postępu nauki. Dlatego naukowcy zazwyczaj używają obojętnych chemicznie molekuł takich jak niejonowe polimery, aby naśladować naturę w probówce i poza komórką tworzyć zatłoczenie odpowiadającemu temu w naturze.
      Jak się jednak okazuje te powszechnie uważane za obojętne dla reakcji biochemicznych związki mogą kompleksować jony. A ponieważ równowaga wielu reakcji biochemicznych zależnych jest od stężenia jonów, jest to szczególnie istotne. Ostatnio, badacze z Instytutu Chemii Fizycznej Polskiej Akademii Nauk z grupy prof. Roberta Hołysta przedstawili badania przybliżające nas do zrozumienia 1000-krotnych zmian w stałych równowagi tworzenia się kompleksu biochemicznego, gdy zachodzi ona w bardzo zatłoczonym środowisku. Przyjrzyjmy się ich badaniom.
      Nasze ciało składa się z trylionów komórek bezustannie współpracujących ze sobą i pełniącymi różne funkcje. Co więcej, nasz organizm w każdej sekundzie wykonuje miliardy zawiłych operacji, a my nawet ich nie zauważamy. Reakcje przebiegające we wnętrzu pojedynczej komórki, a zwłaszcza specyficzne interakcje między indywidualnymi cząsteczkami bardzo często zależą od stężenia jonów w danym miejscu. Wiele reakcji jest szczególnie wrażliwych na zmiany siły jonowej, dlatego równowaga tworzenia się wielu kompleksów biochemicznych (np. kompleksów białko-białko, białko-RNA czy tworzenie się podwójnej nici DNA) może się istotnie zmieniać w zależności od dostępności jonów.
      Sprawę ponad to komplikuje fakt, złożona budowa komórek ludzkich. Przyjrzyjmy się bliżej cytoplazmie wewnątrz komórki. Można ją porównać do basenu pełnego pływających w nim obiektów o różnych rozmiarach i kształtach takie jak rybosomy, małe cząsteczki, białka lub kompleksy białko-RNA, nitkowate składniki cytoszkieletu, i organelle np. mitochondria, lizosomy, jądro itd. Wszystko to sprawia, że lepka, galaretowata struktura cytoplazmy jest bardzo złożonym i zatłoczonym środowiskiem. W takich warunkach każdy parametr, a w szczególności siła jonowa i pH może znacząco wpłynąć na przebieg reakcji biochemicznych. Jednym z mechanizmów utrzymywania równowagi jonowej w komórce są pompy sodowo-potasowe znajdujące się w błonie komórkowej prawie każdej ludzkiej komórki, które to są wspólną cechą dla całego życia komórkowego.
      Wspomniane zatłoczone środowisko jest często odtwarzane sztucznie, aby zrozumieć reakcje biochemiczne zachodzące wewnątrz żywych komórek. Jako modelu cytoplazmy komórki in vitro zazwyczaj używa się roztworów związków niejonowych w dużych stężeniach (∼40–50% masowego). Najczęstszymi molekułami wykorzystywanymi w tym celu są polietylen, glikol etylenowy, glicerol, fikol, oraz dekstrany. Powyższe cząsteczki uważane są powszechnie za chemicznie nieaktywne.
      Zaskakujące wyniki w tej dziedzinie zaprezentowali naukowcy z Instytutu Chemii Fizycznej PAN. Wykorzystali oni hybrydyzację oligonukleotydów DNA jako modelową, bardzo wrażliwą na stężenie jonów, reakcję biochemiczną. Stabilność tworzenia kompleksu badano w obecności różnych związków chemicznych zwiększających zatłoczenie w środowisku prowadzonych reakcji oraz w funkcji siły jonowej.
      Stężenie jonów w roztworze opisywane jest siłą jonową, która określa efektywną odległość elektrostatycznego odpychania między poszczególnymi cząsteczkami. Dlatego też sprawdziliśmy wpływ siły jonowej na hybrydyzację DNA – zauważa Krzysztof Bielec, pierwszy autor artykułu opisującego odkrycie grupy badawczej.
      Przeprowadzone eksperymenty wykazały, że interakcje między cząsteczkami są wzmacniane przy wyższym stężeniu soli oraz że dodatek polimerów zwiększających zatłoczenie i tym samym lepkość środowiska reakcyjnego także wpływa na dynamikę procesów biochemicznych utrudniając tworzenie kompleksów.
      Krzysztof Bielec komentuje: Najpierw sprawdziliśmy wpływ zatłoczenia w środowisku reakcyjnym na stałą równowagi hybrydyzacji DNA. Tworzenie dwuniciowego szkieletu DNA bazuje na oddziaływaniu elektrostatycznym między dwiema ujemnie naładowanymi nićmi. Monitorowaliśmy wpływ zatłoczonego środowiska na hybrydyzację komplementarnych nici o stężeniu nanomolowym charakterystycznym dla wielu reakcji biochemicznych w komórce. Następnie określiliśmy kompleksowanie jonów sodu w zależności od zatłoczenia. Miejsce wiązania kationu w strukturze związku zwiększającego lepkość może różnić się nawet pomiędzy cząsteczkami zawierającymi te same grupy funkcyjne. Dlatego obliczyliśmy oddziaływanie z poszczególnymi cząsteczkami w przeliczeniu na monomer i polimer upraszczając interakcje między jonami a cząsteczkami typu przeszkoda zwiększająca lepkość.
      Ku zaskoczeniu badaczy, okazało się, że powszechnie uważane za niereaktywne niejonowe polimery używane do naśladowania warunków panujących w cytoplazmie mogą kompleksować (niejako podkradać) jony niezbędne do efektywnej hybrydyzacji DNA.
      Pomimo, że nie jest to dominująca interakcja pomiędzy tymi polimerami a jonami to, gdy stosuje się ogromne stężenie polimerów (kilkadziesiąt procent masy roztworu) efekt jest znaczący.
      Określając stabilność kompleksów powstających w obecności konkretnych związków zwiększających zatłoczenie w badanym środowisku reakcyjnym autorzy badania wykazali wpływ jonów na poziomie molekularnym zbliżając nas do lepszego naśladowania warunków panujących w naturze.
      Wyniki tych eksperymentów rzucają światło na wyjaśnianie zjawisk otrzymywane dotychczas za pomocą wspomnianych systemów polimerowych oraz skłaniają do rewizji mechanizmów zachodzących w komórce, jeśli badane były środowiskach otrzymywanych sztucznie.
      Dzięki wynikom przedstawionym przez naukowców z IChF PAN jesteśmy o krok bliżej zrozumienia poszczególnych procesów molekularnych zachodzących wewnątrz komórek. Szczegółowy opis jest niezwykle ważny w wielu dziedzinach jak na przykład przy projektowaniu nowych leków, zwłaszcza w przewidywaniu konkretnych procesów zachodzących w komórkach podczas leczenia. Może być również pomocny w precyzyjnym planowaniu eksperymentów in vitro. Praca badaczy z IChF PAN została opublikowana w The Journal of Physical Chemistry Letters

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wiele trapiących nas chorób ma związek z nieprawidłowo działającymi komórkami. Być może udało by się je skuteczniej leczyć, ale najpierw naukowcy muszą szczegółowo poznać budowę i funkcjonowanie komórek. Dzięki połączeniu sztucznej inteligencji oraz technik mikroskopowych i biochemicznych uczeni z Wydziału Medycyny Uniwersytetu Kalifornijskiego w San Diego (UCSD) dokonali ważnego kroku w kierunku zrozumienia komórek ludzkiego organizmu.
      Dzięki mikroskopom możemy dojrzeć struktury komórkowe wielkości pojedynczych mikrometrów. Z kolei techniki biochemiczne, w których wykorzystuje się pojedyncze proteiny, pozwalają na badanie struktur wielkości nanometrów, czyli 1/1000 mikrometra. Jednak poważnym problemem w naukach biologicznych jest uzupełnienie wiedzy o tym, co znajduje się w komórce pomiędzy skalą mikro- a nano-. Okazuje się, że można to zrobić za pomocą sztucznej inteligencji. Wykorzystując dane z wielu różnych źródeł możemy ją poprosić o ułożenie wszystkiego w kompletny model komórki, mówi profesor Trey Ideker z UCSD.
      Gdy myślimy o komórce, prawdopodobnie przyjdzie nam do głowy schemat ze szkolnych podręczników do biologii, z jego mitochondrium, jądrem komórkowym i retikulum endoplazmatycznym. Jednak czy jest to pełny obraz? Zdecydowanie nie. Naukowcy od dawna zdawali sobie sprawę z tego, że więcej nie wiemy niż wiemy. Teraz w końcu możemy przyjrzeć się komórce dokładniej, dodaje uczony. Ideker i Emma Lundberg ze szwedzkiego Królewskiego Instytutu Technicznego stali na czele zespołu, który jest autorem najnowszego osiągnięcia.
      Wykorzystana przez naukowców nowatorska technika nosi nazwę MuSIC (Multi-Scale Integrated Cell). Podczas pilotażowych badań MuSIC ujawniła istnienie około 70 struktur obecnych w ludzkich komórkach nerek. Połowa z nich nie była dotychczas znana. Zauważono np. grupę białek tworzących nieznaną strukturę. Po bliższym przyjrzeniu się naukowcy stwierdzili, że wiąże ona RNA. Prawdopodobnie struktura ta bierze udział w splicingu, czyli niezwykle ważnym procesie składania genu.
      Twórcy MuSIC od lat próbowali stworzyć mapę procesów zachodzących w komórkach. Tym, co różni MuSIC od podobnych systemów jest wykorzystanie technik głębokiego uczenia się do stworzenia mapy komórki bezpośrednio z obrazów mikroskopowych. System został wyćwiczony tak, by bazując na dostępnych danych stworzył model komórki. Nie mapuje on specyficznych struktur w konkretnych lokalizacjach, tak jak mamy to w schematach uczonych w szkole, gdyż niekoniecznie zawsze znajdują się one w tym samym miejscu.
      Na razie w ramach badań pilotażowych uczeni opracowali za pomocą MuSIC 661 protein i 1 typ komórki. Następnym celem badań będzie przyjrzenie się całej komórce, a później innym rodzajom komórek, komórkom u różnych ludzi i u różnych gatunków zwierząt. Być może z czasem będziemy w stanie lepiej zrozumieć molekularne podstawy różnych chorób, gdyż będziemy mogli wyłapać różnice pomiędzy zdrowymi a chorymi komórkami, wyjaśnia Ideker.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Eksperci z Rocky Mountain Institute opublikowali raport, z którego dowiadujemy się, że koszty produkcji energii z węgla osiągnęły punkt zwrotny i obecnie energia ta na większości rynków przegrywa konkurencję cenową z energią ze źródeł odnawialnych. Z analiz wynika, że już w tej chwili koszty operacyjne około 39% wszystkich światowych elektrowni węglowych są wyższe niż koszty wybudowania od podstaw nowych źródeł energii odnawialnej.
      Sytuacja ekonomiczna węgla będzie błyskawicznie się pogarszała. Do roku 2025 już 73% elektrowni węglowych będzie droższych w utrzymaniu niż budowa zastępujących je odnawialnych źródeł energii. Autorzy raportu wyliczają, że gdyby nagle cały świat podjął decyzję o wyłączeniu wszystkich elektrowni węglowych i wybudowaniu w ich miejsce odnawialnych źródeł energii, to przeprowadzenie takiej operacji stanie się opłacalne już za dwa lata.
      Szybsze przejście od węgla do czystej energii jest w zasięgu ręki. W naszym raporcie pokazujemy, jak przeprowadzić taką zmianę, by z jednej strony odbiorcy energii zaoszczędzili pieniądze, a z drugiej strony, by pracownicy i społeczności żyjące obecnie z energii węglowej mogli czerpać korzyści z energetyki odnawialnej, mówi Paul Bodnar, dyrektor Rocky Mountain Institute.
      Autorzy raportu przeanalizowali sytuację ekonomiczną 2472 elektrowni węglowych na całym świecie. Wzięli też pod uwagę koszty wytwarzania energii ze źródeł odnawialnych oraz jej przechowywania. Na podstawie tych danych byli w stanie ocenić opłacalność energetyki węglowej w 37 krajach na świecie, w których zainstalowane jest 95% całej światowej produkcji energii z węgla. Oszacowali też koszty zastąpienia zarówno nieopłacalnej obecnie, jak o opłacalnej, energetyki węglowej przez źródła odnawialne.
      Z raportu dowiadujmy się, że gdyby na skalę światową zastąpić nieopłacalne źródła energii z węgla źródłami odnawialnymi, to w bieżącym roku klienci na całym świecie zaoszczędziliby 39 miliardów USD, w 2022 roczne oszczędności sięgnęłyby 86 miliardów, a w roku 2025 wzrosłyby do 141 miliardów. Gdyby jednak do szacunków włączyć również opłacalne obecnie elektrownie węglowe, innymi słowy, gdybyśmy chcieli już teraz całkowicie zrezygnować z węgla, to tegoroczny koszt netto takiej operacji wyniósłby 116 miliardów USD. Tyle musiałby obecnie świat zapłacić, by już teraz zrezygnować z generowania energii elektrycznej z węgla. Jednak koszt ten błyskawicznie by się obniżał. W roku 2022 zmiana taka nic by nie kosztowała (to znaczy koszty i oszczędności by się zrównoważyły), a w roku 2025 odnieślibyśmy korzyści finansowe przekraczające 100 miliardów dolarów w skali globu.
      W Unii Europejskiej już w tej chwili nieopłacalnych jest 81% elektrowni węglowych. Innymi słowy, elektrownie te przeżywałyby kłopoty finansowe, gdyby nie otrzymywały dotacji z budżetu. Do roku 2025 wszystkie europejskie elektrownie węglowe będą przynosiły straty. W Chinach nieopłacalnych jest 43% elektrowni węglowych, a w ciągu najbliższych 5 lat nieopłacalnych będzie 94% elektrowni węglowych. W Indiach zaś trzeba dopłacać obecnie do 17% elektrowni, a w roku 2025 nieopłacalnych będzie 85% elektrowni.
      Co ważne, w swoich wyliczeniach dotyczących opłacalności elektrowni węglowych analitycy nie brali pod uwagę zdrowotnych i środowiskowych kosztów spalania węgla.
      Energia węglowa szybko staje się nieopłacalna i to nie uwzględniając kosztów związanych z prawem do emisji i regulacjami odnośnie zanieczyszczeń powietrza. Zamknięcie elektrowni węglowych i zastąpienie ich tańszymi alternatywami nie tylko pozwoli zaoszczędzić pieniądze konsumentów i podatników, ale może też odegrać znaczną rolę w wychodzeniu gospodarki z kryzysu po pandemii, mówi Matt Gray stojący na czele Carbon Tracker Initiative.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na Uniwersytecie w Glasgow po raz pierwszy eksperymentalnie potwierdzono teorię dotyczącą pozyskiwania energii z czarnych dziur. W 1969 roku wybitny fizyk Roger Penrose stwierdził, że można wygenerować energię opuszczając obiekt do ergosfery czarnej dziury. Ergosfera to zewnętrzna część horyzontu zdarzeń. Znajdujący się tam obiekt musiałby poruszać się szybciej od prędkości światła, by utrzymać się w miejscu.
      Penrose przewidywał, że w tym niezwykłym miejscu w przestrzeni obiekt nabyłby ujemną energię. Zrzucając tam obiekt i dzieląc go na dwie części tak, że jedna z nich wpadnie do czarnej dziury, a druga zostanie odzyskana, spowodujemy odrzut, który będzie mierzony wielkością utraconej energii negatywnej, a to oznacza, że odzyskana część przedmiotu zyska energię pobraną z obrotu czarnej dziury. Jak przewidywał Penrose, trudności inżynieryjne związane z przeprowadzeniem tego procesu są tak wielkie, że mogłaby tego dokonać jedynie bardzo zaawansowana obca cywilizacja.
      Dwa lata później znany radziecki fizyk Jakow Zeldowicz uznał, że teorię tę można przetestować w prostszy, dostępny na Ziemi sposób. Stwierdził, że „skręcone” fale światła uderzające o powierzchnię obracającego się z odpowiednią prędkością cylindra zostaną odbite i przejmą od cylindra dodatkową energię. Jednak przeprowadzenie takiego eksperymentu było, i ciągle jest, niemożliwe ze względów inżynieryjnych. Zeldowicz obliczał bowiem, że cylinder musiałby poruszać się z prędkością co najmniej miliarda obrotów na sekundę.
      Teraz naukowcy z Wydziału Fizyki i Astronomii University of Glasgow opracowali sposób na sprawdzenie teorii Penrose'a. Wykorzystali przy tym zmodyfikowany pomysł Zeldowicza i zamiast "skręconych" fal światła użyli dźwięku, źródła o znacznie niższej częstotliwości, i łatwiejszego do użycia w laboratorium.
      Na łamach Nature Physics Brytyjczycy opisali, jak wykorzystali zestaw głośników do uzyskania fal dźwiękowych, skręconych na podobieństwo fal świetlnych w pomyśle Zeldowicza. Dźwięk został skierowany w stronę obracającego się piankowego dysku, który go absorbował. Za dyskiem umieszczono zestaw mikrofonów, które rejestrowały dźwięk przechodzący przez dysk, którego prędkość obrotowa była stopniowo zwiększana.
      Naukowcy stwierdzili, że jeśli teoria Penrose'a jest prawdziwa, to powinni odnotować znaczącą zmianę w częstotliwości i amplitudzie dźwięku przechodzącego przez dysk. Zmiana taka powinna zajść w wyniku efektu Dopplera.
      Z liniową wersją efektu Dopplera wszyscy się zetknęli słysząc syrenę karetki pogotowia, której ton wydaje się rosnąć w miarę zbliżania się pojazdu i obniżać, gdy się on oddala. Jest to spowodowane faktem, że gdy pojazd się zbliża, fale dźwiękowe docierają do nas coraz częściej, a gdy się oddala, słyszymy je coraz rzadziej. Obrotowy efekt Dopplera działa podobnie, jednak jest on ograniczony do okrągłej przestrzeni. Skręcone fale dźwiękowe zmieniają ton gdy są mierzone z punktu widzenia obracającej się powierzchni. Gdy powierzchnia ta obraca się odpowiednio szybko z częstotliwością dźwięku dzieje się coś dziwnego – przechodzi z częstotliwości dodatniej do ujemnej, a czyniąc to pobiera nieco energii z obrotu powierzchni, wyjaśnia doktorantka Marion Cromb, główna autorka artykułu.
      W miarę jak rosła prędkość obrotowa obracającego się dysku, ton dźwięku stawał się coraz niższy, aż w końcu nie było go słychać. Później znowu zaczął rosnąć, aż do momentu, gdy miał tę samą wysokość co wcześniej, ale był głośniejszy. Jego amplituda była o nawet 30% większa niż amplituda dźwięku wydobywającego się z głośników.
      To co usłyszeliśmy podczas naszych eksperymentów było niesamowite. Najpierw, w wyniku działania efektu Dopplera częstotliwość fal dźwiękowych zmniejszała się w miarę zwiększania prędkości obrotowej dysku i spadła do zera. Później znowu pojawił się dźwięk. Stało się tak, gdyż doszło do zmiany częstotliwości fal z dodatniej na ujemną. Te fale o ujemnej częstotliwości były w stanie pozyskać część energii z obracającego się dysku i stały się głośniejsze. Zaszło zjawisko, które Zeldowicz przewidział w 1971 roku, dodaje Cromb.
      Współautor badań, profesor Daniele Faccio, stwierdza: jesteśmy niesamowicie podekscytowani faktem, że mogliśmy eksperymentalnie potwierdzić jedną z najdziwniejszych hipotez fizycznych pół wieku po jej ogłoszeniu. I że mogliśmy potwierdzić teorię dotyczącą kosmosu w naszym laboratorium w zachodniej Szkocji. Sądzimy, że otwiera to drogę do kolejnych badań. W przyszłości chcielibyśmy badać ten efekt za pomocą różnych źródeł fal elektromagnetycznych.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...