Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Dla mnie najbardziej doniosłą własnością mechaniki kwantowej jest jej absolutna kompatybilność z kongwistyką.

Każdy z nas wie że materia może być "subiektywnie świadoma", na pewno świadome wydają się być specyficzne układy zbierające informacje o rzeczywistości i są one świadome... tych zebranych informacji, w określony sposób. Kolejne przełomy koncepcyjne w fizyce zajdą gdy zacznie ona badać to zjawisko.

Najlepsze modele rzeczywistości muszą być bayesowskie, taka też jest MK. To nie jest zbieg okoliczności, tylko bardzo fundamentalna odpowiedniość. Może już czas skończyć z analizowaniem ruchów "cząsteczek" i rozwiązywaniem równań różniczkowych? Zamiast tego trzeba się na serio zająć "klasycznym obserwatorem".

Parafrazując Einsteina, nie można wciąż robić tego samego i liczyć na inny rezultat!

Osobiście uważam, że MK będzie naturalną granicą poznania (świadomych?) systemów refleksywnych.

6 godzin temu, ex nihilo napisał:

Co do informatyki kwantowej, to interesuje mnie, jako obserwatora tego wszystkiego, właściwie o tyle tylko, że dała potężnego kopa badaniom podstaw.

 Całe badanie podstaw istotnych dla działania komputerów kwantowych skończyło się gdzieś 90 lat temu. Pojawiła się za to masa ludzi którzy nie rozumieją mechaniki kwantowej, mniej lub bardziej, i cały czas wymyślają koło na nowo . To badanie podstaw należy rozumieć dosłownie - pewni ludzie starają się zrozumieć podstawy MK. Ta aktywność nie doprowadziła do jakichkolwiek postępów w prawdziwej fizyce.

6 godzin temu, ex nihilo napisał:

W modelach realistycznych i deterministycznych, w których cząstka "jest", problem jest mniejszy. W nierealistycznych i niedeterministycznych, w których "cząstka" to tylko chwilowe wzbudzenie, spontaniczne lub wymuszone, problem wynika z samej natury rzeczy.

Ostra jazda w MK zaczyna się już w eksperymencie z dwoma szczelinami, wystarczy tylko cały układ zatopić w szkle i zastanowić się co tak naprawdę oznacza interferencja "pojedynczych" fotonów.

6 godzin temu, ex nihilo napisał:

A w części eksperymentalnej manipulacja stanami, wymuszanie ich, co może dawać szansę obejścia ograniczeń fundamentalnych

Zero szans. Złośliwie dodam że jak na razie to się do nich nawet nie zbliżono :P

7 godzin temu, ex nihilo napisał:

Unitarność fajnie wygląda w matematycznej abstrakcji, gorzej w fizycznej praktyce (m.in. środowisko, ale nie tylko).

Każde oddziaływanie obserwatora łamie unitarność, bez tego nie bylibyśmy w stanie stwierdzić że MK działa (bo nie byłoby żadnych pomiarów!). Przy braku obserwacji unitarność jest zapewniona z przyczyn logicznych. 
Tak naprawdę jak podzielimy sobie znany układ fizyczny na prosty układ i złożone środowisko, to taka sytuacja modeluje nam... oddziaływanie prostego układu z klasycznym obserwatorem (środowisko nim jest).

Share this post


Link to post
Share on other sites
Posted (edited)
W dniu 1.04.2020 o 01:41, peceed napisał:

Całe badanie podstaw istotnych dla działania komputerów kwantowych skończyło się gdzieś 90 lat temu.

Co do samych komputerów kwantowych tak może być, ale mi chodziło o całość fizyki,  a do tego komputery kwantowe stały się doskonałym dopalaczem - pojawiła się duża forsa i konkretny cel. Nawet gdyby ten cel nie został osiągnięty, przy okazji dużo ciekawego może wyniknąć.I pewnie tak będzie.
 

W dniu 1.04.2020 o 01:41, peceed napisał:

Pojawiła się za to masa ludzi którzy nie rozumieją mechaniki kwantowej, mniej lub bardziej, i cały czas wymyślają koło na nowo . To badanie podstaw należy rozumieć dosłownie - pewni ludzie starają się zrozumieć podstawy MK. Ta aktywność nie doprowadziła do jakichkolwiek postępów w prawdziwej fizyce.

:D Jakieś 120 lat temu fizyka zabrała się za robienie bilansu zamknięcia. Tyle że księgowej bilans nie zgadzał się o parę groszy. Ale księgowa, jak to księgowa, upierdliwa była. Co po paru latach z tej upierdliwości wynikło, wiadomo - rewolucja w podstawach. Teraz wygląda na to, że 95% naszego świata to jakaś lewizna, na którą nie ma żadnych kwitów...
 

W dniu 1.04.2020 o 01:41, peceed napisał:

Każdy z nas wie że materia może być "subiektywnie świadoma", na pewno świadome wydają się być specyficzne układy zbierające informacje o rzeczywistości i są one świadome... tych zebranych informacji, w określony sposób. Kolejne przełomy koncepcyjne w fizyce zajdą gdy zacznie ona badać to zjawisko.

 

W dniu 1.04.2020 o 01:41, peceed napisał:

Może już czas skończyć z analizowaniem ruchów "cząsteczek" i rozwiązywaniem równań różniczkowych? Zamiast tego trzeba się na serio zająć "klasycznym obserwatorem".

Uważam, że kwantologię dręczą trzy główne nieszczęścia - "cząstki", "klasyczny obserwator" i... "kot Schroedingera", który łącznie z dwoma pierwszymi skutecznie robi ludziom bigos z mózgu, a jeszcze kiedy doda się do tego "przyjaciela Wignera", to już całkiem... O kocie będzie w innym temacie.
 

W dniu 1.04.2020 o 01:41, peceed napisał:
W dniu 31.03.2020 o 18:17, ex nihilo napisał:

Unitarność fajnie wygląda w matematycznej abstrakcji, gorzej w fizycznej praktyce (m.in. środowisko, ale nie tylko).

Każde oddziaływanie obserwatora łamie unitarność, bez tego nie bylibyśmy w stanie stwierdzić że MK działa (bo nie byłoby żadnych pomiarów!). Przy braku obserwacji unitarność jest zapewniona z przyczyn logicznych. 
Tak naprawdę jak podzielimy sobie znany układ fizyczny na prosty układ i złożone środowisko, to taka sytuacja modeluje nam... oddziaływanie prostego układu z klasycznym obserwatorem (środowisko nim jest).

Środowiskiem jest w przypadku fizyczna przestrzeń (m.in. strzałka czasu, próżnia, pola), która nie jest tym samym, co abstrakcyjna przestrzeń matematyczna (ciągłość, pełna symetria itd.).

Edited by ex nihilo

Share this post


Link to post
Share on other sites
5 godzin temu, ex nihilo napisał:

ale mi chodziło o całość fizyki,  a do tego komputery kwantowe stały się doskonałym dopalaczem - pojawiła się duża forsa i konkretny cel

To bzdura od strony logicznej - komputery kwantowe nie są w stanie doprowadzić do jakichkolwiek zmian w rozumieniu MK bo w 100% zależą od poprawności obecnego formalizmu. Dokładnie w ten sam sposób przemysł zegarmistrzowski nie przyczynił się do zmiany zrozumienia podstaw mechaniki nawet w maksimum swojego rozwoju w XX w.

5 godzin temu, ex nihilo napisał:

Tyle że księgowej bilans nie zgadzał się o parę groszy.

To kiepska analogia, bo teraz wszystko się zgadza z dokładnością do kilkunastu miejsc po przecinku. Nawet w przypadku teorii efektywnych męczy nas to, że bilans zgadza się aż za dobrze, przez co grożą pozbyciem się wszystkich rewidentów :)

5 godzin temu, ex nihilo napisał:

Środowiskiem jest w przypadku

Chodziło mi o to, że dekoherencja to pomiar dokonywany przez klasycznego obserwatora widziany "z boku", obserwator nie zna swoich mikroskopowych detali.

5 godzin temu, ex nihilo napisał:

Uważam, że kwantologię dręczą trzy główne nieszczęścia - "cząstki", "klasyczny obserwator" i... "kot Schroedingera", który łącznie z dwoma pierwszymi skutecznie robi ludziom bigos z mózgu

Nie, wodę z mózgu robi ludziom przedstawianie superpozycji jako dwóch współistniejących rzeczywistości a nie alternatyw. Kot to tylko ilustracja niemożności zszycia tego z klasyczną intuicją, bo używa się sformułowania "kot jest żywy i martwy jednocześnie" zamiast "kot jest żywy lub martwy" co jest już zupełnie niekontrowersyjne. W skali mikro mówi się o cząsteczkach które są w wielu miejscach jednocześnie na raz, gdy tak naprawdę funkcja falowa jest to kurs u bukmachera na loterię "gdzie jest elektron".

Dobrze przedstawiana MK jest tylko dziwna, źle przedstawiana jest szalona.

Przyjaciel Wiegnera jest ilustracją zasady (naszej wiary), że wystarczająco skomplikowane obiekty o których wiemy też mają prawo używać mechaniki kwantowej do opisu rzeczywistości ze swojego punktu widzenia :P
Bez tego jedyne czego możemy być pewni to własne istnienie i tego, że MK działa dla nas.
A przepraszam: mogę być pewny tylko tego że istnieję i że MK działa u mnie.

Share this post


Link to post
Share on other sites
Posted (edited)
2 godziny temu, peceed napisał:

o bzdura od strony logicznej - komputery kwantowe nie są w stanie doprowadzić do jakichkolwiek zmian w rozumieniu MK bo w 100% zależą od poprawności obecnego formalizmu.

Nieporozumienie - chodzi mi o to, że informatyka kwantowa wpompowała w badania nad QM dużą forsę. To nie jest przypadek, że w ostatnich czasach praktycznie w każdym artykule związanym z QM jest "coś" o możliwości wykorzystania wyników w informatyce kwantowej i okolicach, nawet kiedy związek badań z informatyką itp. jest co najmniej wątpliwy.
 

2 godziny temu, peceed napisał:

To kiepska analogia, bo teraz wszystko się zgadza z dokładnością do kilkunastu miejsc po przecinku. Nawet w przypadku teorii efektywnych męczy nas to, że bilans zgadza się aż za dobrze, przez co grożą pozbyciem się wszystkich rewidentów

Pozostaje tylko drobiazg - uzgodnienie QM z GR i tymi wszystkimi "darkami".
 

2 godziny temu, peceed napisał:

Nie, wodę z mózgu robi ludziom przedstawianie superpozycji jako dwóch współistniejących rzeczywistości a nie alternatyw. Kot to tylko ilustracja niemożności zszycia tego z klasyczną intuicją, bo używa się sformułowania "kot jest żywy i martwy jednocześnie" zamiast "kot jest żywy lub martwy" co jest już zupełnie niekontrowersyjne. W skali mikro mówi się o cząsteczkach które są w wielu miejscach jednocześnie na raz, gdy tak naprawdę funkcja falowa jest to kurs u bukmachera na loterię "gdzie jest elektron".

Czyżbyś u buka obstawił realizm?

Edited by ex nihilo

Share this post


Link to post
Share on other sites
Godzinę temu, ex nihilo napisał:

chodzi mi o to, że informatyka kwantowa wpompowała w badania nad QM dużą forsę

I to jest wielki problem, bo nie ma czego badać. Mamy teorię która działa, a tak naprawdę framework w ramach którego trzeba tworzyć teorię opisujące rzeczywistość.

Godzinę temu, ex nihilo napisał:

To nie jest przypadek, że w ostatnich czasach praktycznie w każdym artykule związanym z QM jest "coś" o możliwości wykorzystania wyników w informatyce kwantowej i okolicach, nawet kiedy związek badań z informatyką itp. jest co najmniej wątpliwy.

Nie jest, to analogiczne zjawisko do tego, że w każdej dyscyplinie badań dobrze jest napomknąć o  znaczeniu rezultatu dla walki z globalnym ociepleniem. Robi to dobrze dla szansy przyznania grantu, nawet badania nad komputerami kwantowymi się na to łapią bo obiecują zmniejszyć ilość emitowanego CO2 przy przeprowadzaniu pewnych typów obliczeń (dwave zakosił chyba 10 mln $) :P

Zasadniczo to pochodna naukowego lamerstwa ludzi rozdysponowujących pieniądze na badania.

Godzinę temu, ex nihilo napisał:

Pozostaje tylko drobiazg - uzgodnienie QM z GR i tymi wszystkimi "darkami".

 Teoria strun robi to znakomicie. Jej jedyny poważny problem to fakt, że jest wymagająca intelektualnie (trudna technicznie) co czyni ją niedostępną dla 99+% fizyków, którzy zatem udają że jej nie ma.

Godzinę temu, ex nihilo napisał:

Czyżbyś u buka obstawił realizm?

Nie, ta loteria to "gdzie jest elektron", a nie "gdzie i jak szybko". "Jest" odnosi się do momentu pomiaru w przyszłości, brak precyzji językowej wynika z wymogów marketingu.

Share this post


Link to post
Share on other sites
Posted (edited)

Ciepło, ciepło, coraz cieplej? :D
https://www.quantamagazine.org/does-time-really-flow-new-clues-come-from-a-century-old-approach-to-math-20200407/
Tutaj niezłe tłumaczenie: https://www.wykop.pl/link/5450131/czy-czas-rzeczywiscie-plynie/
Teraz zrobić z tego fluktuujące gluty ?D przestrzeni (? = wszystkie możliwości), w czym  być może pomóc mogą (na razie tylko przejrzałem):
https://writings.stephenwolfram.com/2020/04/finally-we-may-have-a-path-to-the-fundamental-theory-of-physics-and-its-beautiful/
i niewykluczone, że mam jakąś tam szansę odebrać wygraną u buka... i to zanim wykituję :D

Pierwszy artykuł odnosi się bezpośrednio do naszej dyskusji o symetrii T/CPT i jej fizycznych efektach.

Edited by ex nihilo

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Jak się okazuje, do rozwoju wielkich cywilizacji ludzkości potrzebny był nie tylko miecz i pług, ale również pióro. Autorzy najnowszej analizy dowodzą, że o być albo nie być protopaństw i pierwszych cywilizacji decydowała technologia informacyjna.
      Analiza danych zgromadzonych w ramach projektu „Seshat: Global History Databank” dowodzi, że na pewnym etapie rozwoju rodzące się państwa napotykały wąskie gardło w postaci konieczności wymiany informacji. Te, które sobie z tym poradziły, mogły rozwijać się dalej.
      Jaeweon Shin z Rice University, Michael Holton Price, David Wolpert, Hajime Shimao i Brendan Tracey z Santa Fe Institute oraz Timothy Kohler z Washington State University dowodzą, że każda cywilizacja rozwijała się w trzech etapach.
      Na początkowym etapie rozwój protopaństwa napędzany był samym wzrostem liczby ludności. Osiadły tryb życia, udomowienie roślin i zwierząt pojawiły się niezależnie w wielu miejscach na Ziemi. W wielu społeczeństwach doszło też do znacznej zmiany mobilności ich członków. Wraz z pojawianiem się nadwyżek żywności, przekazywaniem zgromadzonych dóbr kolejnym pokoleniom rosły nierówności, pojawiały się i umacniały ośrodki władzy.
      Powstawały protopaństwa, a wzrost ich siły był napędzany wzrostem liczby ludności. Niemal wszędzie obserwuje się występowanie takich powiązanych ze sobą zjawisk jak wzrost produkcji rolnej, wzrost liczby ludności, pojawianie się zaczątków miast, rozwój hierarchii politycznej i coraz większe nierówności majątkowe. Na wszystkich kontynentach gdzie pojawiło się rolnictwo zauważalny jest wysoki stopień podobieństwa zarówno w sposobie formowania się społeczności ludzkich, od niewielkich grup łowców-zbieraczy po ostatnią znaną nam formę czyli wielkie społeczeństwa miejskie.
      Naukowcy chcieli sprawdzić, co powoduje, że społeczeństwa rozwijają się w tak bardzo podobny sposób. W tym celu wzięli na warsztat bazę Seshat. To ambitny projekt, w którym pod uwagę branych jest ponad 1500 zmiennych, za pomocą których opisano ponad 400 społeczeństw z 6 kontynentów na przestrzeni ostatnich 10 000 lat historii.
      Na podstawie wykonanej analizy autorzy badań doszli do wniosku, że po początkowej pierwszej fazie rozwoju protopaństw wzrost liczby ludności przestaje wystarczać i pojawia się wąskie gardło. Jest nim konieczność opracowania efektywnego systemu wymiany informacji i przeprowadzania transakcji handlowych. Istnieje bardzo silny związek pomiędzy sposobem, w jaki społeczeństwa przetwarzają informacją, a tym, jak duże mogą się stać. Wydaje się, że wcześnie dokonany postęp w przetwarzaniu informacji, a zatem np. pojawienie się pisma czy pieniądze, był dla rozwoju tamtych społeczeństw równie ważny, jak dla nas ważny jest dzisiaj internet, mówi Tim Kohler. Dopiero, gdy w takim protopaństwie pojawi się pismo i pieniądz, społeczeństwo może nadal się rozwijać i przejść do fazy trzeciej.
      Nasze analizy wykazały, że starożytne cywilizacje, po osiągnięciu pewnej wielkości, natykały się na informacyjne wąskie gardło. To punkt zwrotny naszej skali rozwoju społeczeństw. Bardzo rzadko zdarzało się, by bez pisma lub pieniądza, mogły nadal się rozwijać. Jednak tam, gdzie dokonano tych wynalazków, narodziły się wielkie imperia, dodaje Kohler.
      Badania Kohlera i jego kolegów dostarczają też możliwego wyjaśnienia różnic technologicznych, jakie widzimy pomiędzy cywilizacjami Starego i Nowego Świata. Ich praca dowodzi bowiem, że bardzo mało cywilizacji obu Ameryk było w stanie dotrzeć do punktu zwrotnego. W związku z tym istniała tam mniejsza presja na rozwój pisma i innych form informacji, które przyniosły postęp technologiczny w Europie i Azji.
      Jednym z głównych powodów, dla których cywilizacje Ameryki nigdy nie osiągnęły punktu zwrotnego był brak koni, wołów i innych dużych zwierząt zdolnych do przenoszenia ludzi i ładunków. Takie zwierzęta pozwalały na powstanie nadwyżek żywności, ułatwiały handel i umożliwiały ekspansję imperiów w Azji i Europie, dodaje Kohler.
      Naukowcy mają nadzieję, że analiza bazy Seshat da też odpowiedź na inne interesujące pytania, jak np. dlaczego niektóre cywilizacje upadły, mimo że nie widać żadnych zewnętrznych przyczyn ich porażki. Mamy nadzieję, że z czasem, gdy do Seshat będzie trafiało coraz więcej danych, uda nam się odpowiedzieć na tego typu pytania, mówi Kohler.
      Obecnie posiadamy nowe niezwykłe możliwości przechowywania i przetwarzania danych. Większe niż kiedykolwiek wcześniej. Czy to oznacza, że przed nami nowy etap rozwoju ludzkiej cywilizacji? A jeśli tak, to jak będzie on wyglądał, zastanawia się uczony.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Grupa naukowców z Uniwersytetu w Oksfordzie donosi o udanym splątaniu bakterii z fotonami. W październikowym numerze Journal of Physics ukazał się artykuł zespołu pracującego pod kierunkiem Chiary Marletto, który przeanalizował eksperyment przeprowadzony w 2016 roku przez Davida Colesa i jego kolegów z University of Sheffield.
      Podczas wspomnianego eksperymentu Coles wraz z zespołem umieścili kilkaset chlorobakterii pomiędzy dwoma lustrami i stopniowo zmniejszali odległość pomiędzy nimi tak, aż dzieliło je zaledwie kilkaset nanometrów. Odbijając białe światło pomiędzy lustrami naukowcy chcieli spowodować, by fotosyntetyczne molekuły w bakteriach weszły w interakcje z dziurą, innymi słowy, bakterie miały ciągle absorbować, emitować i ponownie absorbować odbijające się fotony. Eksperyment okazał się sukcesem. Sześć bakterii zostało w ten sposób splątanych z dziurą.
      Jednak Marletto i jej zespół twierdzą, że podczas eksperymentu zaszło coś więcej, niż jedynie połączenie bakterii z dziurą. Przeprowadzone analizy wykazały, że sygnatura energetyczna pojawiająca się podczas eksperymentu jest właściwa dla splątania molekuł wewnątrz bakterii e światłem. Wydaje się, że niektóre fotony jednocześnie trafiały w molekuły i je omijały, a to właśnie dowód na splątanie.
      Nasze modele dowodzą, że zanotowano sygnaturę splątania pomiędzy światłem a bakterią, mówi pani Marletto. Po raz pierwszy udało się dokonać splątania kwantowego w żywym organizmie.
      Istnieje jednak wiele zastrzeżeń, mogących podważać wnioski grupy Marletto. Po pierwsze i najważniejsze, dowód na splątanie zależy od tego, w jaki sposób zinterpretujemy interakcję światła z bakterią. Marletto i jej grupa zauważają, że zjawisko to można opisać też na gruncie klasycznego modelu, bez potrzeby odwoływania się do efektów kwantowych. Jednak, jak zauważają, nie można tego opisać modelem „półklasycznym”, w którym do bakterii stosujemy zasady fizyki newtonowskiej, a do fotonu fizykę kwantową To zaś wskazuje, że mieliśmy do czynienia z efektami kwantowymi dotyczącymi zarówno bakterii jak i fotonu. To trochę dowód nie wprost, ale sądzę, że wynika to z faktu, iż oni próbowali bardzo rygorystycznie podejść do tematu i nie wysuwali twierdzeń na wyrost, mówi James Wootton z IBM Zurich Research Laboratory, który nie był zaangażowany w badania.
      Z kolei Simon Gröblacher z Uniwersytetu Technologicznego w Delft zwraca uwagę na kolejne zastrzeżenie. Otóż energię bakterii i fotonu zmierzono wspólnie, nie osobno. To pewne ograniczenie, ale wydaje się, że miały tam miejsce zjawiska kwantowe. Zwykle jednak gdy chcemy dowieść splątania, musimy osobno zbadać oba systemy.
      Wiele zespołów naukowych próbuje dokonać splątania z udziałem organizmów żywych. Sam Gröblacher zaprojektował eksperyment, w którym chce umieścić niesporczaki w superpozycji. Chodzi o to, by zrozumieć nature rzeczy i sprawdzić czy efekty kwantowe są wykorzystywane przez życie. W końcu u swoich podstaw wszystko jest kwantem, wyjaśnia współpracownik Marletto, Tristan Farrow.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Zidentyfikowano błędy, które mogły wpłynąć na niedokładność pomiaru podczas eksperymentów, w wyniku których ogłoszono, że neutrino może poruszać się szybciej niż światło.
      Zespół pracujący przy eksperymencie OPERA stwierdził, że możliwe były dwa błędy związane z obsługą systemu GPS. Czas, jaki potrzebowały neutrino na pokonanie 730-kilometrowej trasy pomiędzy CERN-em a detektorem w Gran Sasso był mierzony za pomocą systemu GPS. Kluczową rolę mogły więc odegrać zegary atomowe na początku i na końcu trasy neutrino. Żeby je zsynchronizować, trzeba wysłać pomiędzy nimi sygnał, a ten też potrzebuje czasu na przebycie określonej odległości. Dlatego też dane są interplowane, w celu wyeliminowania tej różnicy czasu. OPERA przyznaje, że interpolacja mogła zostać źle wykonana. Drugi z możliwych błędów to niewłaściwe połączenie pomiędzy urządzeniem GPS, a głównym zegarem eksperymentu OPERA.
      Należy podkreślić, że są to na razie wstępne najbardziej możliwe wyjaśnienia. Nie wydano jeszcze ostatecznego komunikatu, gdyż oba spostrzeżenia nie zostały ostatecznie zweryfikowane.
      Tymczasem w Fermilab naukowcy pracujący przy eksperymencie MINOS próbują na własną rękę powtórzyć eksperyment CERN-u i sprawdzić uzyskane informacje.
    • By KopalniaWiedzy.pl
      Międzynarodowy zespół uczonych wpadł na trop rewolucyjnej, niespodziewanej metody zapisu danych na dyskach twardych. Pozwala ona na setki razy szybsze przetwarzanie informacji niż ma to miejsce we współczesnych HDD.
      Naukowcy zauważyli, że do zapisu danych wystarczy jedynie ciepło. Dzięki temu będzie ona zachowywana znacznie szybciej i zużyje się przy tym mniej energii.
      Zamiast wykorzystywać pole magnetyczne do zapisywania informacji na magnetycznym nośniku, wykorzystaliśmy znacznie silniejsze siły wewnętrzne i zapisaliśmy informację za pomocą ciepła. Ta rewolucyjna metoda pozwala na zapisywanie terabajtów danych w ciągu sekundy. To setki razy szybciej niż pracują obecne dyski. A jako, że nie trzeba przy tym wytwarzać pola magnetycznego, potrzeba mniej energii - mówi fizyk Thomas Ostler z brytyjskiego University of York.
      W skład międzynarodowego zespołu, który dokonał odkrycia, wchodzili uczeni z Hiszpanii, Szwajcarii, Ukrainy, Rosji, Japonii i Holandii.
      Doktor Alexey Kimel z Instytutu Molekuł i Materiałów z Uniwersytetu w Nijmegen mówi: Przez wieki sądzono, że ciepło może tylko niszczyć porządek magnetyczny. Teraz pokazaliśmy, że w rzeczywistości jest ono impulsem wystarczającym do zapisania informacji na magnetycznym nośniku.
      Uczeni wykazali, że bieguny w domenach magnetycznych na dysku można przełączać nie tylko za pomocą pola magnetycznego generowanego przez głowicę zapisująco-odczytującą, ale również dzięki ultrakrótkim impulsom cieplnym.
    • By KopalniaWiedzy.pl
      Badacze z amerykańskiego Narodowego Laboratorium Energii Odnawialnej (NREL) poinformowali o stworzeniu pierwszego ogniwa słonecznego, którego zewnętrzna wydajność kwantowa wynosi ponad 100%. Dla fotoprądu wartość zewnętrznej wydajności kwantowej - podawaną w procentach - wylicza się na podstawie liczby elektronów przepływających przez obwód w ciągu sekundy podzielonej przez liczbę fotonów z określonej długości fali, wpadających w ciągu sekundy do ogniwa słonecznego. Dotychczas nie istniały ogniwa, których wydajność w jakimkolwiek zakresie fali przekraczałaby 100%. Uczonym z NREL udało się osiągnąć szczytową wydajność kwantową rzędu 114%. W przyszłości może to pozwolić na zbudowanie ogniw słonecznych, z których energia będzie równie tania, lub tańsza, od energii uzyskiwanej z paliw kopalnych czy energii jądrowej.
      Mechanizm uzyskania wydajności większej niż 100% bazuje na procesie zwanym Multiple Exciton Generation (MEG), podczas którego pojedynczy foton o odpowiednio wysokiej energii tworzy więcej niż jedną parę elektron-dziura.
      W roku 2001 pracujący w NREL Arthur J. Nozik przewidział, że MEG będzie lepiej działało w półprzewodnikowych kropkach kwantowych niż w zwykłych półprzewodnikach. Pięć lat później w pracy opublikowanej wraz z Markiem Hanną Nozik stwierdził, że kropki kwantowe użyte w ogniwach słonecznych mogą zwiększyć ich wydajność o około 35% w porównaniu z innymi nowoczesnymi rozwiązaniami. Ogniwa bazujące na kropkach kwantowych nazywane się ogniwami trzeciej (lub kolejnej) generacji. Obecnie buduje się ogniwa pierwszej i drugiej generacji.
      Zjawisko MEG, zwane też Carrier Multiplication (CM), zostało po raz pierwszy zaprezentowane w Los Alamos National Laboratory w 2004 roku. Od tamtej chwili wiele innych ośrodków badawczych potwierdziło jego występowanie w różnych półprzewodnikach. Teraz NREL zaprezentował MEG o wartości większej niż 100%. Badań dokonano przy niskiej intensywności symulowanego światła słonecznego, a mimo to eksperymentalne ogniwo słoneczne osiągnęło wydajność konwersji energii rzędu 4,5%. To bardzo dobry wynik, biorąc pod uwagę fakt, że ogniowo nie było optymalizowane pod kątem wydajności.
×
×
  • Create New...