Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów ' metoda' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 3 wyniki

  1. Inżynierowie biomedyczni z Duke University opracowali metodę jednoczesnego pomiaru grubości i tekstury warstw siatkówki. Mają nadzieję, że będzie ją można wykorzystać do wykrywania biomarkerów choroby Alzheimera (ChA). Wyniki badań ukazały się w piśmie Scientific Reports. Wcześniejsze badanie wykazało pocienienie siatkówki u pacjentów z ChA. Dodając do pomiarów kolejną metodę, odkryliśmy, że warstwa włókien nerwowych siatkówki [ang. retinal nerve fiber layer, RNFL] jest też bardziej nierówna i zaburzona - opowiada prof. Adam Wax. Mamy nadzieję, że uda się wykorzystać tę wiedzę do stworzenia [...] taniego urządzenia skryningowego, które byłoby dostępne nie tylko w gabinecie lekarza, ale i w miejscowej aptece. Obecnie ChA diagnozuje się dopiero po wystąpieniu objawów - zaburzeń poznawczych. Gdyby dało się wdrożyć leczenie na wczesnych etapach choroby, znacznie poprawiłoby to jakość życia pacjentów. To dlatego naukowcy nie ustają w próbach wykrycia biomarkerów, które mogłyby pełnić rolę wczesnych sygnałów ostrzegawczych. Siatkówka zapewnia łatwy dostęp do mózgu i jej pocienienie może być wskazówką zmniejszenia ilości tkanki nerwowej, a więc występowania ChA - wyjaśnia Wax. Problemem jest jednak to, że inne choroby, np. parkinson czy jaskra, także powodują pocienienie siatkówki. Poza tym różnice między aparatami do optycznej tomografii koherencyjnej (OCT) prowadzą do niespójności uzyskiwanych rezultatów. Najnowsze badania Waxa i jego studentki Ge Song wykazały, że warstwa włókien nerwowych siatkówki w mysim modelu ChA jest cieńsza i wykazuje zmiany strukturalne. Złogi amyloidu w siatkówkach transgenicznych gryzoni występowały np. głównie w rejonach w obrębie RNFL i warstwy splotowatej zewnętrznej (ang. outer plexiform layer, OPL). Nasze nowe podejście może określić [...] teksturę NFL, zapewniając szybki i bezpośredni sposób pomiaru zmian strukturalnych powodowanych przez alzheimera [...]. By uzyskać więcej danych, naukowcy połączyli OCT z kątoworozdzielczą interferometrią niskokoherentną (ang. angle-resolved low-coherence interferometry, a/LCI). Wiedza nt. kątów rozpraszania światła daje bowiem wgląd w strukturę tkanki. Podczas testów wykazano, że średnia grubość NFL w grupie myszy typu dzikiego wynosiła ok. 18µm, a w grupie z alzheimerem była obniżona do 16µm. Pomiary a/LCI uzupełniają pomiary grubości [...]. Za pomocą samego OCT nie uzyska się danych dot. struktury siatkówki. Potrzebne są więc obie modalności obrazowania - wyjaśnia Song. Obecnie naukowcy pracują nad dodaniem nowej opcji do taniego systemu OCT. Co ważne, zmniejszone waga i gabaryty sprzętu Waxa przekładają się na mniejsze rozmiary i niższą cenę. « powrót do artykułu
  2. Jesteśmy bardziej oryginalni niż sądzimy, sugerują analizy tekstów literackich przeprowadzone nową metodą stylometrii, zaproponowaną przez naukowców z Instytutu Fizyki Jądrowej PAN w Krakowie. Indywidualność autora widać już w powiązaniach między zaledwie kilkunastoma wyrazami tekstu angielskiego. W językach słowiańskich do identyfikacji twórcy wystarcza nawet mniejsza liczba wyrazów, a na dodatek wynik jest pewniejszy. Ustalenie, kto jest autorem tekstu, na ogół nie jest trudne – wystarczy przeczytać podpis. Zdarza się jednak, że podpisu nie ma, ponieważ się nie zachował lub został przez autora z premedytacją pominięty. Nierzadko też zamiast imienia i nazwiska widzimy pseudonim. Jak więc zweryfikować, spod czyjego pióra wyszedł historyczny tekst znany jedynie z fragmentów? Jak ustalić rzeczywistego twórcę internetowego paszkwilu? Jak naprawdę wiarygodnie stwierdzić, czy tekst pracy magisterskiej bądź doktorskiej nie jest plagiatem? Tradycyjne metody stylometryczne w wielu przypadkach zawodzą lub nie prowadzą do dostatecznie pewnych wniosków. Na łamach czasopisma Information Sciences naukowcy z Instytutu Fizyki Jądrowej Polskiej Akademii Nauk (IFJ PAN) w Krakowie przedstawili własne narzędzie statystyczne do analizy stylometrycznej. Skonstruowane z użyciem grafów, pozwala ono spojrzeć na strukturę tekstów w jakościowo nowy sposób. Wnioski płynące z naszych badań z jednej strony są budujące. Wskazują bowiem, że indywidualność każdej osoby przejawia się wyraźnie w sposobie używania już zaskakująco małej liczby wyrazów. Ale jest i druga, ciemniejsza strona medalu. Skoro bowiem okazujemy się tak oryginalni, będzie nas można łatwiej identyfikować po wypowiedziach - mówi prof. dr hab. Stanisław Drożdż (IFJ PAN, Politechnika Krakowska). Stylometria – czyli nauka zajmująca się wyznaczaniem statystycznych charakterystyk stylu tekstów – opiera się na spostrzeżeniu, że każdy z nas nieco inaczej używa nawet tego samego języka. Jedni mają szerszy zasób słownictwa, inni węższy, ktoś lubi stosować pewne sformułowania i popełnia błędy, ktoś inny unika powtórzeń i jest purystą językowym. A gdy piszemy, różnimy się też sposobem stosowania znaków interpunkcyjnych. W typowym podejściu stylometrycznym zazwyczaj bada się podstawowe cechy tekstu, np. częstotliwość występowania poszczególnych wyrazów, interpunkcję zaś się ignoruje. Analizy są przeprowadzane dla badanego tekstu oraz dla tekstów napisanych przez potencjalnych, dobrze znanych autorów. Za twórcę uznaje się tę osobę, której dzieła mają parametry o wartościach najbardziej zbliżonych do otrzymanych dla identyfikowanego materiału. My zaproponowaliśmy, żeby charakterystycznych cech stylu szukać w sieciowej reprezentacji tekstu, za pomocą grafów - wyjaśnia Tomasz Stanisz, doktorant IFJ PAN i pierwszy autor publikacji, po czym precyzuje: Graf to zbiór punktów, czyli wierzchołków grafu, połączonych liniami, czyli krawędziami grafu. W najprostszym przypadku – w tak zwanej sieci nieważonej – wierzchołki odpowiadają poszczególnym wyrazom i są połączone krawędziami wtedy i tylko wtedy, gdy w tekście dane dwa wyrazy przynajmniej raz wystąpiły obok siebie. Na przykład dla zdania 'Ala ma kota' graf miałby trzy wierzchołki, po jednym dla każdego wyrazu, ale krawędzie byłyby tylko dwie, jedna między 'Ala' a 'ma', druga między 'ma' a 'kota'. Podczas konstruowania swoich narzędzi stylometrycznych badacze z IFJ PAN testowali różne rodzaje grafów. Najlepsze wyniki otrzymano dla grafów ważonych, a więc takich, w których każda krawędź niesie informację o liczbie wystąpień odpowiadającego jej połączenia między wyrazami. W takich sieciach najbardziej przydatne okazały się dwa parametry: krotność węzłów i współczynnik gronowania. Pierwszy z nich opisuje liczbę krawędzi wychodzących z danego węzła i bezpośrednio wiąże się z liczbą wystąpień danego wyrazu w tekście. Z kolei współczynnik gronowania opisuje prawdopodobieństwo tego, że dwa wyrazy połączone krawędzią z danym wyrazem są połączone krawędzią także między sobą. Za pomocą tak przygotowanych narzędzi statystycznych krakowscy fizycy przyjrzeli się 96 książkom: po sześciu powieściom ośmiu znanych autorów angielskich (Austen, Conrad, Defoe, Dickens, Doyle, Eliot, Orwell, Twain) i ośmiu polskich (Korczak, Kraszewski, Lam, Orzeszkowa, Prus, Reymont, Sienkiewicz, Żeromski). W gronie autorów było dwóch laureatów literackiej Nagrody Nobla (Władysław Reymont i Henryk Sienkiewicz). Wszystkie teksty pobrano z serwisów Project Gutenberg, Wikisources i Wolne Lektury. Grupa z IFJ PAN sprawdzała następnie, z jaką wiarygodnością można w ramach jednego języka stwierdzić autorstwo 12 losowo wybranych dzieł, traktując pozostałą część puli utworów jako materiał do porównań. W przypadku tekstów angielskich identyfikowaliśmy autorów poprawnie w niemal 90% przypadków. Na dodatek by osiągnąć sukces należało prześledzić powiązania między zaledwie 10-12 wyrazami badanego tekstu. Wbrew naiwnej intuicji, dalsze zwiększanie liczby badanych wyrazów nie podnosiło znacząco skuteczności metody - mówi Tomasz Stanisz. W języku polskim ustalenie autorstwa okazało się jeszcze prostsze: wystarczało prześledzić powiązania zaledwie 5-6 wyrazów. Co szczególnie ciekawe, mimo dwukrotnie mniejszej niż w języku angielskim puli istotnych wyrazów, prawdopodobieństwo poprawnej identyfikacji wzrastało – nawet do 95%! Tak wysoka poprawność diagnoz była jednak osiągana tylko wtedy, gdy jako osobne wyrazy traktowano także znaki interpunkcyjne. W obu językach pominięcie interpunkcji skutkowało wyraźną redukcją liczby poprawnych odgadnięć. Zaobserwowana rola interpunkcji to kolejne potwierdzenie wniosków z publikacji grupy prof. Drożdża z 2017 roku, gdzie wykazano, że interpunkcja pełni w języku rolę równie ważną jak same wyrazy. W porównaniu z językiem angielskim język polski wydaje się dawać większe możliwości ujawniania się stylu autora. Sądzimy, że podobną cechą charakteryzują się również pozostałe języki słowiańskie. Angielski jest bowiem językiem pozycyjnym, co oznacza, że istotna jest w nim kolejność wyrazów w zdaniu. Taki język pozostawia mniej miejsca na indywidualny styl wypowiedzi niż języki słowiańskie, w których o roli słowa czy wyrazu w zdaniu decyduje fleksja, czyli odmiana. Dopuszcza ona bowiem większą swobodę organizacji kolejności wyrazów w zdaniu przy niezmienionym jego znaczeniu - podsumowuje prof. Drożdż. « powrót do artykułu
  3. SERS, niezwykle czuła laboratoryjna metoda analizy składu chemicznego, po dekadach od wynalezienia ma szansę się upowszechnić. Właśnie znika główna przeszkoda hamująca rozwój tej obiecującej techniki badawczej: niskiej jakości podłoża, na które nanoszono próbki. Nowe podłoża, gwarantujące powtarzalność pomiarów i odpowiednie wzmocnienie sygnałów, są już dostępne dzięki naukowcom z Instytutu Chemii Fizycznej PAN w Warszawie. Kolejny skok jakościowy w technikach detekcji niewielkich ilości związków chemicznych będzie z dużym prawdopodobieństwem związany ze wzmacnianą powierzchniowo spektroskopią ramanowską (Surface Enhanced Raman Spectroscopy, SERS). SERS jest techniką znaną od dekad, o potencjalnie znakomitej przyszłości. Pojawiają się na przykład koncepcje mikroskopów ramanowskich, zdolnych do śledzenia pojedynczych cząsteczek chemicznych bez ich wcześniejszego znakowania, tak uciążliwego np. we współczesnej mikroskopii fluorescencyjnej. Szerokie stosowanie SERS było dotychczas radykalnie ograniczone z uwagi na niską jakość podłoży, na które należało nanosić badany roztwór, żeby otrzymać odpowiednie wzmocnienie sygnału. W Instytucie Chemii Fizycznej Polskiej Akademii Nauk (IChF PAN) w Warszawie już kilka lat temu zaprezentowano prototypowe podłoża spełniające wszystkie wymogi niezbędne do przekształcenia SERS w rutynową, powszechną technikę laboratoryjną. Obecnie, po kolejnych udoskonaleniach i testach, nowe podłoża, już z normami ISO, stają się dostępne dla wszystkich zainteresowanych dzięki działającej w ramach IChF PAN inicjatywie SERSitive (www.sersitive.eu), finansowanej ze środków Narodowego Centrum Badań i Rozwoju. Co ciekawe, rozpoczynająca się właśnie produkcja i dystrybucja podłoży SERSitive będzie prowadzona nie w odrębnej firmie, lecz w ramach działań statutowych IChF PAN. Informacje dotyczące podłoży SERS i ich produkcji przedstawiono na konferencji 20th International Conference on Spectroscopy and Spectral Analysis (ICSSA 2018), właśnie odbywającej się w Vancouver w Kanadzie. SERS wykorzystuje subtelne zjawisko fizyczne. Gdy światło pada na cząsteczkę, fotony są pochłaniane i wkrótce emitowane ponownie, niemal zawsze z tą samą energią co niesiona przez zaabsorbowany foton (jest to tzw. rozpraszanie rayleighowskie). Zdarza się jednak, że podczas absorpcji część energii pochłanianego fotonu zwiększy energię drgań lub obrotów cząsteczki. W takim przypadku emitowany nieco później foton będzie miał odrobinę mniejszą energię od pierwotnego. Analogicznie, może dojść do sytuacji, gdy energia wyemitowanego fotonu nieco się zwiększy, ponieważ uniesie on część energii drgań lub obrotów cząsteczki. Mówimy wtedy o rozpraszaniu ramanowskim. W zarejestrowanym widmie cząsteczki, po obu stronach częstotliwości typowej dla rozpraszania rayleighowskiego, pojawią się wówczas piki wynikające ze zjawiska Ramana. Sygnał ramanowski w widmie jest jednak bardzo słaby, ponieważ w ten sposób rozprasza się tylko jeden foton na miliony innych. Na szczęście od 1974 roku wiadomo, że sygnał ramanowski może się wzmocnić miliony, a niekiedy nawet miliardy razy, jeśli cząsteczki analizowanego związku będą osadzone na silnie schropowaconym podłożu. Główny problem z podłożami do SERS polegał na tym, że muszą one spełniać szereg kryteriów. Powinny być na przykład powtarzalne i jednorodne, a przy tym uniwersalne przynajmniej pod kątem zastosowań w badaniach określonej grupy związków chemicznych. Aby wyeliminować tło w widmach, podłoża muszą też być czyste, a jednocześnie powinny zapewniać duże wzmocnienie sygnału. Tymczasem dostępne do tej pory podłoża nie gwarantowały dosłownie niczego: sygnał ramanowski był raz wzmacniany, a raz nie, przy czym raz wzmocnienie mogło sięgać 100 tysięcy razy, a innym razem 10 tysięcy. Wyzwaniem okazało się nie tyle osiągnięcie dobrego wyniku w poszczególnych parametrach, ile spełnienie wszystkich wymogów jednocześnie. W praktyce skala trudności okazała się tak wielka, że przez kilkadziesiąt lat nikt nie wyprodukował podłoży gwarantujących zadowalającą jakość pomiarów! – wyjaśnia mgr Monika Księżopolska-Gocalska (IChF PAN), która pracuje w grupie prof. dr. hab. Roberta Hołysta i od początku prowadzi nadzór nad projektem SERSitive. Podłoża SERSitive powstają w procesie elektrochemicznego nanoszenia nanocząstek srebra i złota na szkło przewodzące, tzw. ITO (szczegóły procesu są chronione dwoma patentami). Wielkości nanocząstek wahają się od 50 do 200 nanometrów. Silnie schropowacone podłoża są dostępne w dwóch odmianach: pokrytej wyłącznie nanocząstkami srebra oraz hybrydowej, zawierającej nanocząstki i srebra, i złota. Płytki mają rozmiary 9x7x0.7 mm, przy czym obszar aktywny ma wielkość 4x5 mm. Rozmiary płytek zostały tak dobrane, aby łatwo było nakroplić roztwór, a kropla dobrze się rozprowadziła. W razie potrzeby płytkę można nawet zanurzyć w niewielkim naczyniu z badaną substancją – mówi mgr inż. Paweł Albrycht (IChF PAN), zajmujący się w grupie SERSitive udoskonalaniem i modernizacją podłoży. Platformy SERSitive wzmacniają sygnały całej gamy substancji chemicznych, zwłaszcza wielocząsteczkowych o dużych cząsteczkach z wiązaniami podwójnymi. W praktyce oznacza to zdolność do detekcji wielu związków organicznych. W testach medycznych czy kryminalistycznych możliwe jest wykrywanie obecności narkotyków we krwi czy moczu, a także konkretnych bakterii w materiale biologicznym. O skali wyzwań związanych z podłożami do SERS może świadczyć fakt, że na udoskonalenie elektrochemicznych metod ich wytwarzania świat musiał czekać aż 47 lat. Gdy sześć lat temu sami zaczynaliśmy prace nad tymi podłożami, przez pierwsze półtora roku nam także nie wychodziło kompletnie nic. Fakt, że dziś jesteśmy w stanie nie tylko wytwarzać odpowiednie podłoża, ale nawet oferować je innym, pokazuje, jak wielką rolę w rozwoju współczesnej nauki odgrywa upór wsparty rzetelną wiedzą i intuicją badawczą – podsumowuje prof. Hołyst. O właściwościach podłoży SERSitive może się przekonać każdy zainteresowany: do testów są one udostępniane bezpłatnie. « powrót do artykułu
×
×
  • Dodaj nową pozycję...