Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Naukowcy z Uniwersytetu Harvarda skonstruowali laser, który pozwala na zajrzenie do wnętrza komórki i obserwowanie na żywo zachodzących tam procesów. Dzięki dodaniu nanoanteny do lasera działającego w paśmie podczerwieni stworzono urządzenie zdolne do przekazania obrazu o 100-krotnie większej rozdzielczości niż dotychczas.

Do tej pory mikroskopy używane do obserwowania komponentów chemicznych wchodzących w skład komórek były ograniczone limitem dyfrakcyjnym. Jest to zjawisko fizyczne, które powoduje, że konwencjonalne soczewki mogą skupić światło do maksimum połowy długości jego fali. Mniejszych długości za ich pomocą nie można uzyskać.

To bardzo poważne ograniczenie. Jeśli bowiem używamy do obserwacji mikroskopowej światła podczerwonego o długości fali 24 mikrometrów, to może ono zostać skupione do punku o szerokości 12 mikrometrów. Tymczasem wielkość komórki zwierzęcej to 10 mikrometrów, bakterii – 1 mikrometr, a wirusa – dziesiąte części mikrometra. Tak więc 12 mikrometrów to zdecydowanie zbyt dużo.

Uczeni z Uniwersytetu Harvarda jako pierwsi pokonali limit refrakcyjny. Udało im się to w ubiegłym roku, gdy skonstruowali nanoantenę na potrzeby wyjątkowo gęstego zapisu danych na CD.

Pierwsza nanoantena składała się z dwóch pręcików pokrytych złotem, pomiędzy którymi jest 30-nanometrowa przerwa. Gdy światło lasera trafia na pręciki, na moment wytrąca ono elektrony złota. Skupiają się one przy jednym z pręcików. W ten sposób jeden z nich ma wartość ujemną, drugi dodatnią. Antena działa jak kondensator i skupia światło lasera do około 10 nanometrów. Później, po przejściu przez "kondensator" światło zaczyna się rozpraszać, jednak gdy dociera do powierzchni nośnika długość jego fali wynosi 40 nanometrów. Nanoantena użyta do obserwacji komórek jest zbudowana podobnie, jednak zapewnia rozdzielczość rzędu 100 nanometrów.

Naukowcy skojarzyli swoją antenę z kwantowym laserem kaskadowym i wykorzystali ją w mikrobiologii.

Tego typu lasery emitują światło w średnim zakresie podczerwieni (od 3 do 24 mikrometrów) i są używane do identyfikacji związków chemicznych, gdyż w średniej podczerwieni poszczególne molekuły odbijają właściwe sobie częstotliwości światła.

Dotychczas tego typu lasery nie były wykorzystywane w obrazowaniu o wysokiej rozdzielczości. Teraz mogą być wykorzystane do tego celu, a mikroskopy, w których zostaną zastosowane lasery kaskadowe, mogłyby np. wykrywać zmiany w pojedynczych białkach znajdujących się na powierzchni komórki.

Dzięki zastosowaniu nanoanteny możliwe będzie uzyskanie jeszcze lepszej rozdzielczości. Jest ona bowiem ograniczona rozmiarem przerwy pomiędzy oboma pręcikami. Wraz z rozwojem technik produkcyjnych odległość tę będzie można zmniejszać, zwiększając tym samym rozdzielczość mikroskopu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Obawiam się, że na tym poziomie wielkości odzywa się zasada Heisenberga i wiele się już nie zobaczy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

zasada nieoznaczoności mówi że nigdy nie możemy określić jednoznacznie prędkości i położenia cząstki elementarnej także nie wiem co to ma do rzeczy

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To ma do rzeczy, że nie jesteś w stanie sfotografować tak bardzo małego obiektu. Poza tym nie ustawisz przecież żadnej migawki na tak krótką chwilę, by sfotografować obiekt poruszający się z tak gigantyczną prędkością, jak ruchy cząstek elementarnych. Ponownie: tak krótki czas jest nie do zrealizowania ze względu na tę zasadę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

w szczególności rozmiary niewidzialnych wyższych wymiarów są równe długości plancka co póki co pozostaje poza naszym zasięgiem

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

no tak ale istnieje np równanie  ktore oblicza prawdopodobieństwo pojawienia sie danej cząstki w danym miejscu i z określona prędkościa (funkcja falowa schroedingera) a więc mówimy tu o niemozliwości z powodów 'energetyczno-technicznych'

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak chcesz obliczać, to nie potrzebujesz obserwować. Za to jeśli chcesz obserwować, a wiesz, że z równania wynika, że to niemożliwe, to nie ma sensu konstruować takiego mikroskopu, bo i tak nie uzyskasz jednoznacznego obrazu. Proste.

 

Poza tym nie bardzo Ciebie rozumiem - najpierw napisałem, że nie da się sfotografować takiego obiektu, Ty miałeś obiekcje, a na koniec zasadniczo potwierdziłeś to, co napisałem. Zdecyduj się.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

niee, ja mówie że wykracza to poza technikę dnia dzisiejszego a ty że to jest niemozliwe (bo póki co niesprawdzalne rozumiem). z samych równań schroedingera można wyliczyć że na poziomie obecnych mozliwości superstruny są sumą istniejących jak i nieistniejących strun ponieważ to pomiar obserwacji stwierdza istnienie obiektu. ale jak to mawiał einstein: czy księżyc istnieje tylko dlatego że patrzy na niego mysz? teoria strun jest trudna ale miejmy nadzieję pewnego dnia uda nam sie ją ujarzmić

 

aha i jeszcze jedno: własnie że wszystko jest możliwe. nawet to że nagle przetunaluję na 2 strone Ziemi i da sie to obliczyć. jednak czas oczekiwania akurat na to zjawisko jest dłuższy od czasu zycia wszechswiata.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tyle tylko, że strzelanie fotonami do strun byłoby jak strzelanie z armaty do muchy. Jak zmierzyć miarę odbicia obiektu tak "dużego" jak foton w obiekt tak mały, jak hipotetyczna struna? Przecież właśnie na tym od strony fizycznej polega pomiar: zbadać, w jaki sposób odbija się foton od kolejnych obiektów na swojej drodze. Pomyśl o tym od tej strony. Być może istnieje jakaś hipotetyczna porcja materii lub energii, która mogłaby tego dokonać - ale raczej nie "cały" foton i myslę, że nie mamy ciągle wyizolowanej cząstki na tyle małej, żeby tego dokonać.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

zgodnie z teorią strun gdybyśmy potrafili powiększyć w jakiś sposób cząstke punktową (która wcale nie jest sama w sobie elementarna) zobaczylibyśmy małą, wibrującą strunę. w rzeczywistości, zgodnie z tą teoria, materia jest niczym innym jak tylko harmoniami stworzonymi przez wibrujace struny. podobnie jak istnieje nieskończona liczba współbrzmień, które można zagrać np na skrzypcach, istnieje nieskończona liczba form materii, które można skonstruować z drgających strun, które mogą sie rozpadać na mniejsze struny albo zderzac ze soba tworząc dłuższe formy materii. w tym momencie mozna porównać wszechświat do jednej wielkiej symfonii. oczywiście że nie zbombardujesz jej niczym ponieważ jest około sto miliardów miliardów razy mniejsza od protonu i to własnie ona go tworzy. niemniej jednak mamy pełną teorię zarówno materio-energii jak i czasoprzestrzeni a niemozność jej 'zobaczenia' jest tylko problemem budowy mikroskopów. błogosławieni ci, kótrzy nie widzieli, a uwierzyli

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Okej, okej - tylko dlaczego w takim razie sam mówiłeś o udoskonalaniu tego urządzenia w ten sposób, żeby dotrzeć do skali strun? Przecież to oczywiste, że mikroskop dowolnego rodzaju używa strumienia fotonów jako medium, które umożliwia zdobycie informacji.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Heh, po prostu wcześniej użyłeś stwierdzenia "problem budowy mikroskopów". No, ale nieważne, nie zrozumieliśmy się. Peace! ;>

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Badacze z Uniwersytetu Harvarda i Instytutu Zdrowia Układu Oddechowego w Kantonie będą wspólnie pracowali nad terapiami mającymi na celu zapobiegać istniejącym oraz przyszłym infekcjom. Badania zostaną sfinansowane przez chińskiego giganta na rynku nieruchomości China Evergrande Group, który przekazał na ten cel 115 milionów dolarów.
      Główne zadania, jakie będą stały przed współpracującymi zespołami, będą: opracowanie szybko działających, bardziej dokładnych testów diagnostycznych, które będzie można wykorzystać w punktach podstawowej opieki medycznej; zrozumienie odpowiedzi układu odpornościowego oraz interakcji pomiędzy patogenem a jego gospodarzem, w tym zidentyfikowanie biomarkerów pozwalających na monitorowanie przebiegu infekcji, postępów choroby oraz przewidzenie wystąpienia komplikacji i stanów krytycznych zagrażających życiu pacjenta. Uczeni będą pracowali też nad nowymi szczepionkami oraz opracowywali terapie przeciwwirusowe skracające czas choroby oraz pojawienie się objawów u osób zarażonych.
      Na czele grupy z Harvard Medical School stanie dziekan wydziału medycyny George Q. Daley. W jego grupie znajdą się zarówno specjaliści od badań podstawowych w medycynie, badań interdyscyplinarnych, specjaliści ds. madycyny klinicznej oraz eksperci z różnych szpitali, intytutów badawczych i firm biotechnologicznych.
      Pracami chińskiej grupy będzie kierował pulmonolog i epidemiolog doktor Zhong Nanshan, który w 2003 roku odkrył koronawirusa SARS i opisał kliniczny przebieg choroby. Doktor Nanshan stoi na czele Chinese 2019n-CoV Expert Taskforce odpowiedzialnej za walkę z infekcją SARS-CoV-2 i COVID-19 oraz członek Chińskiej Akademii Inżynierii.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na szwedzkim Uniwersytecie Technologicznym Chalmers powstała niezwykle prosta nanoantena, która odbija niebieskie i czerwone światło w różnych kierunkach. Urządzenie działa, mimo iż jest mniejsze od długości fali świetlnej. Dzięki nanoantenie w przyszłości mogą powstać optyczne nanoczujniki zdolne do wykrywania bardzo niewielkich ilości gazów czy molekuł.
      Struktury mniejsze od długości fali światła widzialnego nie powinny być w stanie rozszczepić światła. Jednak nowa nanoantena to potrafi. Jest ona bowiem zbudowana asymetrycznie z różnych materiałów, przez co dochodzi do przesunięcia fazy sygnału optycznego.
      Antena składa się z dwóch nanoczęsteczek umieszczonych w odległości 20 nanometrów od siebie na szklanym podłożu. Jedna z nich to nanocząsteczka srebra, druga - złota. Badania wykazały, że rozprasza ona światło, odbijając w różnych kierunkach widmo niebieskie i czerwone.
      Wyjaśnieniem jest pojawienie się przesunięcia fazy sygnału optycznego. Przyczyną wystąpienia tego zjawiska są różne właściwości optyczne srebra i złota, w szczególności częstotliwość drgań plazmonów. Oznacza to, że wolne elektrony nanocząsteczek wspólnie oscylują zgodnie z częstotliwością fali świetlnej, co w efekcie wpływa na rozprzestrzenianie się światła, mimo tego, że antena jest tak mała - mowi Timur Shegai, jeden z autorów nanoanteny.
    • przez KopalniaWiedzy.pl
      Rząd USA chce przeznaczyć 19 miliardów dolarów na zachęcenie służby zdrowia do skomputeryzowania się. Od 2011 roku każdy lekarz, który zdecyduje się na wykorzystywanie elektronicznej kartoteki medycznej i będzie robił to efektywnie, otrzyma 64 000 dolarów. Tymczasem badania przeprowadzone przez Harvard Medical School dowodzą, że skomputeryzowanie służby zdrowia nie przynosi niemal żadnych korzyści.
      Uczeni z Uniwersytetu Harvarda przez cztery lata zbierali dane z 4000 amerykańskich szpitali i odkryli, że w tych placówkach, które są najbardziej skomputeryzowane nie odnotowano ani zmniejszenia wydatków, ani poprawy funkcjonowania szpitala. Koszty związane z budową i obsługą infrastruktury IT są większe, niż wszelkie możliwe oszczędności. Co więcej, zdecydowana większość oprogramowania i komputerów służy administracji, a nie lekarzom czy pracownikom laboratoriów.
      Doktor David Himmelstein, główny autor badań, powiedział, że problem tkwi przede wszystkim w tym, że systemy komputerowe są tworzone dla księgowych i menedżerów, a nie dla lekarzy, pielęgniarek i pacjentów. Przyznaje, że system IT może nieco zwiększyć jakość przetwarzania danych w przemyśle opieki zdrowotnej, ale nie przyczynia się do zmniejszenia kosztów. Najpierw wydajesz 25 milionów dolarów na budowę systemu i zatrudnienie od kilkudziesięciu do tysiąca osób, które się nim opiekuję. A z punktu widzenia lekarzy tylko wydłuża się czas, który spędzają na wypełnianiu formularzy - dodaje Himmelstein. Jedynie niektóre szpitale odnotowały zmniejszenie kosztów i zwięĸszenie wydajności. Były to te placówki, które nie kupiły gotowych rozwiązań, ale zdecydowały się na wdrożenie systemów przygotowanych pod kątem ich potrzeb. Jednak ich budowa wymaga wielomiesięcznych badań i przygotowań. Naukowcy wymieniają ty m.in. Women's Hospital w Bostonie czy Szpital Świętych Dnia Ostatniego w Salt Lake City. Systemy zainstalowane w tych placówkach są niezwykle intuicyjne i powstały z myślą o lekarzach, a nie administracji. Ich twórcy nie muszą pisać podręczników obsługi ani zapewniać szkoleń. Jeśli potrzebujesz podręcznika, oznacza to, że system nie działa. Jeśli potrzebujesz szkolenia, system nie działa - mówi Himmelstein.
      Uczony, który był dyrektorem centrum komputerowego w Cambridge Hospital mówi, że koncepcja, jakoby komputeryzacja przynosiła oszczędności w służbie zdrowia nie jest nowa. Już w latach 60. ubiegłego wieku IBM i Lockheed Corp. wysunęły takie twierdzenia. Pomysł taki ma wielu zwolenników, którzy przewidywali, że w latach 90. rozpocznie się boom na systemy IT w służbie zdrowia. Z kolei już w obecnym tysiącleciu pojawiły się analizy, mówiące o dziesiątkach miliardów dolarów, które w skali kraju zaoszczędzi amerykańska służba zdrowia i o poprawie jakości usług, jakie miała przynieść komputeryzacja. Podobne korzyści obiecuje rząd federalny. David Brailer, który za prezydentury George'a W. Busha był pierwszym w historii urzędnikiem rządowym odpowiedzialnym za komputeryzację służby zdrowia informował, że 25-35 procent z 5000 amerykańskich szpitali rozpoczyna przechodzenie na cyfrową dokumentację. Twierdzi on, że wdrożenie ogólnonarodowego elektronicznego systemu danych z opieki zdrowotnej będzie kosztowało 75-100 miliardów dolarów i przyniesie roczne oszczędności rzędu 200-300 miliardów. Miałyby one powstać dzięki temu, że nie będzie trzeba tworzyć niepotrzebnych kopii informacji, uniknie się błędów w dokumentacji oraz wyłudzania usług czy odszkodowań.
      Himmelstein mówi, że twierdzenia te nie są wsparte żadnymi dowodami.
    • przez KopalniaWiedzy.pl
      Uczeni pracujący pod kierunkiem akademików z Princeton University odkryli nowy sposób na zmuszenie materiałów do emisji wiązki laserowej. Claire Gmachl z Mid-Infrared Technologies for Health and the Environment (MIRTHE) poinformowała o dodatkowej wiązce, którą znaleziono w kwantowym laserze kaskadowym. Wiązka ta ma niezwykłe właściwości, a do jej wygenerowania potrzeba znacznie mniej energii. Jeśli wyłączymy standardową wiązkę, uzyskamy lepszy laser, który bardziej efektywnie wykorzystuje energię - mówi Gmachl.
      Zbudowany na Princeton University laser ma zaledwie 3 milimetry długości. Składa się jednak z setek warstw różnych półprzewodników o grubości kilku atomów każda. Elektrony przechodzą przez kolejne warstwy i tracą energię co wywołuje emisję fotonów w postaci wiązki laserowej.
      Już w czerwcu 2007 roku poinformowano, że w tego typu laserach można zauważyć drugą wiązkę o nieco mniejszej długości fali, niż wiązka główna. Kolejne badania pokazały, że jej istnienia nie potrafimy wyjaśnić za pomocą żadnej istniejącej teorii. Okazało się też, że, w przeciwieństwie do konwencjonalnych laserów, druga wiązka jest tym silniejsza, im wyższa temperatura pracy. Co więcej, wyraźnie "konkuruje" ona z wiązką główną, gdyż ta słabnie w miarę jak druga wiązka staje się mocniejsza.
      Zespół Gmachl potrafi obecnie wyjaśnić sposób powstawania drugiej wiązki. Otóż w konwencjonalnych laserach tylko te elektrony, których pęd jest bliski zeru, biorą udział w emisji światła. Wiązka powstaje dzięki temu, że znaczna liczba elektronów znajduje się w stanie równowagi - mają takie same poziomy energii i pędu. Zespół z Princeton dowiedział się, że druga wiązka powstaje dzięki nierównowadze. Tworzona jest przez elektrony o niskim poziomie energii, ale dużym momencie pędu. To z kolei dowodzi, że elektrony są użyteczne w laserach nawet wówczas, gdy nie znajdują się w równowadze - mówi Gmachl.
      Dzięki temu odkryciu możliwe będzie tworzenie znacznie bardziej wydajnych laserów. W obecnie używanych laserach elektrony często absorbują fotony, zmniejszając wydajność urządzenia. W nowych laserach elektrony o wysokim momencie pędu nie będą absorbowały fotonów, dzięki czemu wzrośnie wydajność laserów. To z kolei oznacza, że będą one używały mniej energii i będą mniej wrażliwe na zmiany temperatury.
      Prototyp stworzony przez naukowców z Princeton nie osiągnął pełni swych możliwości, gdyż dominowała w nim konwencjonalna wiązka. Uczeni szukają teraz sposobów na jej wyłączenie.
    • przez KopalniaWiedzy.pl
      Uniwersytet Harvarda i IBM połączyły siły w poszukiwaniu tanich materiałów nadających się do budowy ogniw słonecznych. IBM udostępni moc obliczeniową swojego World Community Grid.
      To rozproszona sieć komputerów należących do internautów-ochotników, którzy udostępniają ich moc obliczeniową różnym inicjatywom naukowym. W ramach WCG poszukiwany jest np. ryż o lepszych właściwościach odżywczych czy lekarstwa na raka i AIDS. Teraz dzięki niemu naukowcy będą badali właściwości materiałów organicznych, z których można będzie budować ogniwa słoneczne. Materiały takie są tańsze i lżejsze od powszechnie wykorzystywanego krzemu oraz, w przeciwieństwie do niego, pozwalają na tworzenie elastycznych ogniw. Mają też wady: są mniej wydajne i szybciej się zużywają, dlatego też naukowcy nie ustają w poszukiwaniu coraz doskonalszych materiałów organicznych.
      Alan Aspuru-Guzik z Uniwersytetu Harvarda mówi, że gdyby użyć superkomputera do badania właściwości chemicznych związków, które uczeni wzięli pod lupę, prace zajęłyby 23 lata. Badanie jednego tylko związku trwałoby około 100 dni. Dzięki WCG prace mogą zakończyć się w ciągu 2 lat.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...