Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Tekst jak sieć: Ile wyrazów wystarczy, by rozpoznać autora?

Rekomendowane odpowiedzi

Jesteśmy bardziej oryginalni niż sądzimy, sugerują analizy tekstów literackich przeprowadzone nową metodą stylometrii, zaproponowaną przez naukowców z Instytutu Fizyki Jądrowej PAN w Krakowie. Indywidualność autora widać już w powiązaniach między zaledwie kilkunastoma wyrazami tekstu angielskiego. W językach słowiańskich do identyfikacji twórcy wystarcza nawet mniejsza liczba wyrazów, a na dodatek wynik jest pewniejszy.

Ustalenie, kto jest autorem tekstu, na ogół nie jest trudne – wystarczy przeczytać podpis. Zdarza się jednak, że podpisu nie ma, ponieważ się nie zachował lub został przez autora z premedytacją pominięty. Nierzadko też zamiast imienia i nazwiska widzimy pseudonim. Jak więc zweryfikować, spod czyjego pióra wyszedł historyczny tekst znany jedynie z fragmentów? Jak ustalić rzeczywistego twórcę internetowego paszkwilu? Jak naprawdę wiarygodnie stwierdzić, czy tekst pracy magisterskiej bądź doktorskiej nie jest plagiatem? Tradycyjne metody stylometryczne w wielu przypadkach zawodzą lub nie prowadzą do dostatecznie pewnych wniosków. Na łamach czasopisma Information Sciences naukowcy z Instytutu Fizyki Jądrowej Polskiej Akademii Nauk (IFJ PAN) w Krakowie przedstawili własne narzędzie statystyczne do analizy stylometrycznej. Skonstruowane z użyciem grafów, pozwala ono spojrzeć na strukturę tekstów w jakościowo nowy sposób.

Wnioski płynące z naszych badań z jednej strony są budujące. Wskazują bowiem, że indywidualność każdej osoby przejawia się wyraźnie w sposobie używania już zaskakująco małej liczby wyrazów. Ale jest i druga, ciemniejsza strona medalu. Skoro bowiem okazujemy się tak oryginalni, będzie nas można łatwiej identyfikować po wypowiedziach - mówi prof. dr hab. Stanisław Drożdż (IFJ PAN, Politechnika Krakowska).

Stylometria – czyli nauka zajmująca się wyznaczaniem statystycznych charakterystyk stylu tekstów – opiera się na spostrzeżeniu, że każdy z nas nieco inaczej używa nawet tego samego języka. Jedni mają szerszy zasób słownictwa, inni węższy, ktoś lubi stosować pewne sformułowania i popełnia błędy, ktoś inny unika powtórzeń i jest purystą językowym. A gdy piszemy, różnimy się też sposobem stosowania znaków interpunkcyjnych. W typowym podejściu stylometrycznym zazwyczaj bada się podstawowe cechy tekstu, np. częstotliwość występowania poszczególnych wyrazów, interpunkcję zaś się ignoruje. Analizy są przeprowadzane dla badanego tekstu oraz dla tekstów napisanych przez potencjalnych, dobrze znanych autorów. Za twórcę uznaje się tę osobę, której dzieła mają parametry o wartościach najbardziej zbliżonych do otrzymanych dla identyfikowanego materiału.

My zaproponowaliśmy, żeby charakterystycznych cech stylu szukać w sieciowej reprezentacji tekstu, za pomocą grafów - wyjaśnia Tomasz Stanisz, doktorant IFJ PAN i pierwszy autor publikacji, po czym precyzuje: Graf to zbiór punktów, czyli wierzchołków grafu, połączonych liniami, czyli krawędziami grafu. W najprostszym przypadku – w tak zwanej sieci nieważonej – wierzchołki odpowiadają poszczególnym wyrazom i są połączone krawędziami wtedy i tylko wtedy, gdy w tekście dane dwa wyrazy przynajmniej raz wystąpiły obok siebie. Na przykład dla zdania 'Ala ma kota' graf miałby trzy wierzchołki, po jednym dla każdego wyrazu, ale krawędzie byłyby tylko dwie, jedna między 'Ala' a 'ma', druga między 'ma' a 'kota'.

Podczas konstruowania swoich narzędzi stylometrycznych badacze z IFJ PAN testowali różne rodzaje grafów. Najlepsze wyniki otrzymano dla grafów ważonych, a więc takich, w których każda krawędź niesie informację o liczbie wystąpień odpowiadającego jej połączenia między wyrazami. W takich sieciach najbardziej przydatne okazały się dwa parametry: krotność węzłów i współczynnik gronowania. Pierwszy z nich opisuje liczbę krawędzi wychodzących z danego węzła i bezpośrednio wiąże się z liczbą wystąpień danego wyrazu w tekście. Z kolei współczynnik gronowania opisuje prawdopodobieństwo tego, że dwa wyrazy połączone krawędzią z danym wyrazem są połączone krawędzią także między sobą.

Za pomocą tak przygotowanych narzędzi statystycznych krakowscy fizycy przyjrzeli się 96 książkom: po sześciu powieściom ośmiu znanych autorów angielskich (Austen, Conrad, Defoe, Dickens, Doyle, Eliot, Orwell, Twain) i ośmiu polskich (Korczak, Kraszewski, Lam, Orzeszkowa, Prus, Reymont, Sienkiewicz, Żeromski). W gronie autorów było dwóch laureatów literackiej Nagrody Nobla (Władysław Reymont i Henryk Sienkiewicz). Wszystkie teksty pobrano z serwisów Project Gutenberg, Wikisources i Wolne Lektury. Grupa z IFJ PAN sprawdzała następnie, z jaką wiarygodnością można w ramach jednego języka stwierdzić autorstwo 12 losowo wybranych dzieł, traktując pozostałą część puli utworów jako materiał do porównań.

W przypadku tekstów angielskich identyfikowaliśmy autorów poprawnie w niemal 90% przypadków. Na dodatek by osiągnąć sukces należało prześledzić powiązania między zaledwie 10-12 wyrazami badanego tekstu. Wbrew naiwnej intuicji, dalsze zwiększanie liczby badanych wyrazów nie podnosiło znacząco skuteczności metody - mówi Tomasz Stanisz.

W języku polskim ustalenie autorstwa okazało się jeszcze prostsze: wystarczało prześledzić powiązania zaledwie 5-6 wyrazów. Co szczególnie ciekawe, mimo dwukrotnie mniejszej niż w języku angielskim puli istotnych wyrazów, prawdopodobieństwo poprawnej identyfikacji wzrastało – nawet do 95%! Tak wysoka poprawność diagnoz była jednak osiągana tylko wtedy, gdy jako osobne wyrazy traktowano także znaki interpunkcyjne. W obu językach pominięcie interpunkcji skutkowało wyraźną redukcją liczby poprawnych odgadnięć. Zaobserwowana rola interpunkcji to kolejne potwierdzenie wniosków z publikacji grupy prof. Drożdża z 2017 roku, gdzie wykazano, że interpunkcja pełni w języku rolę równie ważną jak same wyrazy.

W porównaniu z językiem angielskim język polski wydaje się dawać większe możliwości ujawniania się stylu autora. Sądzimy, że podobną cechą charakteryzują się również pozostałe języki słowiańskie. Angielski jest bowiem językiem pozycyjnym, co oznacza, że istotna jest w nim kolejność wyrazów w zdaniu. Taki język pozostawia mniej miejsca na indywidualny styl wypowiedzi niż języki słowiańskie, w których o roli słowa czy wyrazu w zdaniu decyduje fleksja, czyli odmiana. Dopuszcza ona bowiem większą swobodę organizacji kolejności wyrazów w zdaniu przy niezmienionym jego znaczeniu - podsumowuje prof. Drożdż.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To teraz kolej na analizę innych form literackich: dramaty Szekspira, przemówienia znanych polityków, księgi biblijne przypisywane jednemu autorowi…

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Rewelacja - wiele tekstów historycznych czeka na taką analizę - w tym właśnie wspomniane przez Ushera Księgi Biblijne. Będzie można poczynić dalsze ustalenia co do źródeł poszczególnych fragmentów a może i dokopać się do wniosków kiedy tak naprawdę powstała np. opowieść o Pierwszych Rodzicach i Raju.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Trochę Cię poniosło. Do analizy wykorzystano dzieła autorów zaliczanych do mistrzów narracji, więc wynik był raczej oczywisty. Rzecz w tym, że mistrzowska kreacja oznacza również zróżnicowanie języka postaci, zatem dobry utwór, w którym przeważają dialogi (w szczególności dramat) nie powinien dawać wyników jednoznacznych jako całość, ale dopiero po rozbiciu na części - oddzielnie odautorska narracja (w dramacie - didaskalia), oddzielnie wypowiedzi każdej postaci.

W związku z tym w poprzedniej wiadomości wskazałem przykłady tekstów, których jednoznaczna analiza z różnych względów może być utrudniona lub niemożliwa niezależnie od użytej  metody.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Inżynierowie biomedyczni z Duke University opracowali metodę jednoczesnego pomiaru grubości i tekstury warstw siatkówki. Mają nadzieję, że będzie ją można wykorzystać do wykrywania biomarkerów choroby Alzheimera (ChA). Wyniki badań ukazały się w piśmie Scientific Reports.
      Wcześniejsze badanie wykazało pocienienie siatkówki u pacjentów z ChA. Dodając do pomiarów kolejną metodę, odkryliśmy, że warstwa włókien nerwowych siatkówki [ang. retinal nerve fiber layer, RNFL] jest też bardziej nierówna i zaburzona - opowiada prof. Adam Wax. Mamy nadzieję, że uda się wykorzystać tę wiedzę do stworzenia [...] taniego urządzenia skryningowego, które byłoby dostępne nie tylko w gabinecie lekarza, ale i w miejscowej aptece.
      Obecnie ChA diagnozuje się dopiero po wystąpieniu objawów - zaburzeń poznawczych. Gdyby dało się wdrożyć leczenie na wczesnych etapach choroby, znacznie poprawiłoby to jakość życia pacjentów. To dlatego naukowcy nie ustają w próbach wykrycia biomarkerów, które mogłyby pełnić rolę wczesnych sygnałów ostrzegawczych.
      Siatkówka zapewnia łatwy dostęp do mózgu i jej pocienienie może być wskazówką zmniejszenia ilości tkanki nerwowej, a więc występowania ChA - wyjaśnia Wax.
      Problemem jest jednak to, że inne choroby, np. parkinson czy jaskra, także powodują pocienienie siatkówki. Poza tym różnice między aparatami do optycznej tomografii koherencyjnej (OCT) prowadzą do niespójności uzyskiwanych rezultatów.
      Najnowsze badania Waxa i jego studentki Ge Song wykazały, że warstwa włókien nerwowych siatkówki w mysim modelu ChA jest cieńsza i wykazuje zmiany strukturalne. Złogi amyloidu w siatkówkach transgenicznych gryzoni występowały np. głównie w rejonach w obrębie RNFL i warstwy splotowatej zewnętrznej (ang. outer plexiform layer, OPL).
      Nasze nowe podejście może określić [...] teksturę NFL, zapewniając szybki i bezpośredni sposób pomiaru zmian strukturalnych powodowanych przez alzheimera [...].
      By uzyskać więcej danych, naukowcy połączyli OCT z kątoworozdzielczą interferometrią niskokoherentną (ang. angle-resolved low-coherence interferometry, a/LCI). Wiedza nt. kątów rozpraszania światła daje bowiem wgląd w strukturę tkanki.
      Podczas testów wykazano, że średnia grubość NFL w grupie myszy typu dzikiego wynosiła ok. 18µm, a w grupie z alzheimerem była obniżona do 16µm.
      Pomiary a/LCI uzupełniają pomiary grubości [...]. Za pomocą samego OCT nie uzyska się danych dot. struktury siatkówki. Potrzebne są więc obie modalności obrazowania - wyjaśnia Song.
      Obecnie naukowcy pracują nad dodaniem nowej opcji do taniego systemu OCT. Co ważne, zmniejszone waga i gabaryty sprzętu Waxa przekładają się na mniejsze rozmiary i niższą cenę.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Południowokoreańskie Ministerstwo Edukacji prowadzi śledztwo w sprawie naukowców, którzy... dopisują dzieci jako autorów prac naukowych. Praktyki takie wykryto w 2017 roku. Obecnie wiadomo o 17 naukowcach, którzy do 24 prac wpisali dzieci jako współautorów.
      Większość wpisuje własne dzieci lub dzieci spokrewnione. Praktyka taka ma prawdopodobnie na celu zwiększenie ich szans w dostaniu się na uczelnie wyższe. W Korei Południowej wpisanie jako autora pracy naukowej osoby, która nie przyczyniła się do jej powstania, jest uznawane za naruszenie zasad. Może to skutkować upomnieniem, rocznym zakazem uczestnictwa w badaniach naukowych lub wyrzuceniem z pracy.
      Afera wybuchła po tym, jak społeczeństwo zaczęło domagać się wyjaśnień dotyczących zasad przyjmowania na uniwersytety dzieci osób bogatych i ustosunkowanych. Wiadomo, że co najmniej jeden z naukowców, który dopisał dziecko, stracił prace.
      Od czasu wybuchu afery zidentyfikowano 794 prace naukowe, których współautorami były dzieci. Jak poinformowała minister edukacji, Yoo Eun-hae, dotychczas przyjrzano się 549 z nim i stwierdzono, że w przypadku 24 dzieci nie przyczyniły się do powstania pracy. Wiadomo też, że w 11 takich przypadkach dziecko dostało się na uniwersytet właśnie dlatego, że zostało wymienione jako współautor pracy naukowej.
      Wydaje się jednak, że problem jest znacznie szerszy. Niektórzy naukowcy mówią, że z ich obserwacji wynika, iż praktyka dopisywania dzieci jest znacznie bardziej rozpowszechniona, niż wynikałoby to z ministerialnego raportu.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na Uniwersytecie w Glasgow powstał sztuczny język, który z dużą trafnością potrafi rozróżniać whisky. Naukowcy mają nadzieję, że uda się go wykorzystać m.in. do przeciwdziałania fałszowaniu alkoholi.
      Ułożone w szachownicę submikroskopowe paski złota i glinu spełniają funkcję kubków smakowych. Podczas testów mierzy się, jak po zalaniu próbką alkoholu absorbują światło. Analiza statystyczna bardzo subtelnych różnic w zakresie absorbowania światła przez metale sztucznego języka (rezonansu plazmonowego) pozwalała Szkotom identyfikować różne typy whisky.
      Autorzy publikacji z pisma Nanoscale wykorzystali sztuczny język do próbkowania wyboru whisky z destylarni Glenfiddich, Laphroaig i Glen Marnoch.
      Okazało się, że język był w stanie wyczuć różnice między napojami z ponad 99% trafnością. Radził sobie z wychwytywaniem subtelnych różnic między tą samą whisky leżakowaną w innych beczkach i dojrzewającą 12, 15 lub 18 lat.
      Nie jesteśmy pierwszymi badaczami, którzy stworzyli sztuczny język, ale jako pierwsi uzyskaliśmy sztuczny język wykorzystujący 2 rodzaje nanokubków smakowych z metalu. Zapewniają one więcej informacji na temat smaku każdej próbki i umożliwiają szybszą i dokładniejszą reakcję - opowiada dr Alasdair Clark. Choć w tym eksperymencie skupiliśmy się na whisky, sztuczny język da się łatwo wykorzystać do "smakowania" właściwie każdej cieczy, co oznacza, że może on znaleźć bardzo różne zastosowania: od identyfikowania fałszowanego alkoholu po badanie bezpieczeństwa i jakości żywności [...].

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Nieodległa przyszłość globalnej gospodarki rysuje się w skrajnie czarnych barwach. Ta pesymistyczna prognoza płynie z zaawansowanych analiz statystycznych indeksu giełdowego S&P 500, opublikowanych ostatnio przez naukowców z Instytutu Fizyki Jądrowej PAN w Krakowie. Na ich podstawie badacze wyjaśniają, dlaczego za kilka do kilkunastu lat można się spodziewać krachu finansowego jakiego w dziejach jeszcze nie było – i przy okazji tłumaczą, dlaczego czytając ten tekst masz szansę ocalić świat.
      Czarny Poniedziałek, pęknięcie bańki internetowej czy upadek banku Lehman Brothers. Wydarzenia te zachwiały światową gospodarką. Wkrótce możemy jednak mieć do czynienia z tak gigantycznym załamaniem rynków finansowych, że wszystkie wcześniejsze krachy wydadzą się przy nim mało istotnymi potknięciami. Ta katastroficzna wizja wyłania się z multifraktalnych analiz rynków finansowych, zaprezentowanych na łamach cenionego czasopisma Complexity przez naukowców z Instytutu Fizyki Jądrowej Polskiej Akademii Nauk (IFJ PAN) w Krakowie – i współgra z ich wcześniejszymi prognozami sprzed kilkunastu lat.
      Dane są, niestety, dość jednoznacznie. Wygląda na to, że począwszy od połowy lat dwudziestych wysoce prawdopodobny jest globalny krach finansowy o dotychczas niespotykanej skali. Tym razem zmiana będzie jakościowa. Wręcz radykalna! - mówi prof. dr hab. Stanisław Drożdż (IFJ PAN, Politechnika Krakowska).
      W swojej najnowszej publikacji naukowcy z IFJ PAN przyglądali się różnym danym ekonomicznym, m.in. dziennym notowaniom indeksu Standard & Poor 500 w okresie od stycznia 1950 roku do grudnia 2016 (S&P 500 to największy indeks giełdowy świata, uwzględniający 500 największych spółek, w znacznej części o charakterze globalnym). Podstawowym celem artykułu krakowskich badaczy nie było snucie katastroficznych prognoz, lecz wiarygodne przedstawienie zagadnień związanych z występowaniem efektów multifraktalnych (a więc takich, w których by zobaczyć samopodobieństwo różne fragmenty badanej struktury trzeba powiększać z różną szybkością) w finansowych szeregach czasowych (czyli np. w notowaniach cen czy w wartościach indeksów giełdowych). Szczególną uwagę naukowców zwrócił wykres przedstawiający zmiany wykładnika Hursta, wyliczonego dla indeksu S&P 500 na podstawie widm multifraktalnych otrzymanych w trakcie analiz.
      Wykładnik Hursta może przyjmować wartości od 0 do 1 i odzwierciedla stopień podatności układu do zmiany trendu. Gdy jest równy 0,5, badana fluktuująca wielkość ma przy kolejnym pomiarze takie samo prawdopodobieństwo zmiany na plus, co na minus. Wartości poniżej 0,5 sygnalizują większą skłonność do przemienności kierunków fluktuacji: wzrost zwiększa prawdopodobieństwo spadku lub odwrotnie, co w kontekście finansów można interpretować jako symptom nerwowości. Wartości powyżej 0,5 wskazują na persystentny charakter zmian i skłonność układu do budowania trendu. Po wzroście mamy wtedy większe prawdopodobieństwo kolejnego wzrostu, a po spadku – większe kolejnego spadku.
      Za rynki stabilne, dojrzałe, uznaje się takie, których wykładnik Hursta jest równy 0,5 lub wykazuje niewielkie odchylenia od tej wartości. Wykres wykładnika Hursta dla indeksu S&P 500 rzeczywiście zaczyna się od 0,5. 19 października 1987 roku dochodzi jednak do krachu – to słynny Czarny Poniedziałek. Wykładnik nieznacznie się wtedy obniża, niemniej przez ponad dekadę znów zachowuje w miarę stały poziom. Na przełomie wieków pojawia się wyraźny spadek, a już w marcu 2000 roku pęka bańka internetowa. Tak jak wcześniej, tak po niej wykładnik Hursta ponownie się stabilizuje, jednak na krótszy okres. Już pod koniec pierwszej dekady nagle zaczyna szybko rosnąć, by załamać się po bankructwie banku Lehman Brothers we wrześniu 2008 roku. Od tego momentu wykładnik Hursta nie tylko nie powrócił w okolice wartości 0,5, ale w ostatniej dekadzie dość wyraźnie i systematycznie zszedł nawet poniżej szczególnie niepokojącej wartości 0,4.
      Tym, co również uderza w zmianach wykładnika Hursta dla indeksu S&P 500, są skracające się odstępy czasowe między kolejnymi krachami oraz fakt, że po każdym załamaniu wskaźnik nigdy nie wracał do pierwotnego poziomu. Mamy tu wyraźny sygnał, że nerwowość rynku światowego narasta cały czas, od dekad, niezależnie od zmieniających się ludzi, podmiotów gospodarczych czy technologii - zauważa prof. Drożdż.
      Zaobserwowana zależność koresponduje z inną, wykrytą przez prof. Drożdża i jego współpracowników już w 2003 roku. W publikacji w czasopiśmie Physica A: Statistical Mechanics and its Applications na jednym z wykresów przedstawiono wtedy zmiany logarytmu z indeksu S&P 500 począwszy od roku 1800 (wartości sprzed wprowadzenia indeksu S&P 500 zrekonstruowano na podstawie danych historycznych). Zygzakowata krzywa wyginała się wzdłuż sinusoidy o rosnącej częstotliwości, coraz dynamiczniej wznoszącej się ku asymptocie usytuowanej w okolicach roku 2025. Każdy kolejny krach był tu poprzedzony mniejszymi wahnięciami, swoistymi minikrachami, które nazwano prekursorami. Wiele prekursorów miało swoje, jeszcze mniejsze prekursory, wykazując w ten sposób pewne samopodobieństwo.
      Rzecz w tym, że analogiczna samopodobna zależność może działać także w większych skalach czasowych. Wtedy dotychczasowe krachy byłyby jedynie prekursorami wydarzenia znacznie większego i bardziej groźnego. Gdy proces o podobnej dynamice pojawia się w fizyce, mówimy o przejściu fazowym II rodzaju, takim jak pojawianie się czy też zanik właściwości magnetycznych w materiale magnetycznym w pobliżu temperatury Curie - mówi prof. Drożdż.
      Otwarte pozostaje pytanie o wiarygodność tak pesymistycznej prognozy. Jeśli w najbliższych latach rynki finansowe jakościowo się nie zmienią, czarny wariant rozwoju wydarzeń ma szanse stać się rzeczywistością. Trzeba jednak pamiętać o istotnej różnicy między światami matematyki czy fizyki, a światem finansów. Prawa i modele matematyczne konstruowane w ramach fizyki są skuteczne i w miarę nieskomplikowane m.in. z uwagi na wewnętrzną prostotę i niezmienność obiektów, których dotyczą. Rynki finansowe mają znacznie bardziej złożony charakter. Ich uczestnicy są zmienni: pamiętają, uczą się, potrafią reagować zarówno logicznie, jak i emocjonalnie. Nie brakuje przykładów udowadniających, że gdy wśród istotnej liczby uczestników rynku upowszechni się wiedza o jakimś prawie mającym moc prognozowania, rynek błyskawicznie się zmienia, a wykryta regularność zanika. Czy podobnie będzie w przypadku nadciągającego hiperkrachu?
      Problem w tym, że nie wiadomo, co i jak musiałoby wpłynąć na rynek globalny, by zapobiec nadciągającemu załamaniu. Lekarstwem mogłyby być na przykład formujące się rynki kryptowalut, ale czy na pewno się nim staną? Nie wiadomo. Nie jest nawet pewne, czy dysponując wiedzą o koniecznych zmianach udałoby się je wprowadzić w zaledwie kilka lat – a nie wygląda na to, żebyśmy mieli ich więcej do dyspozycji. Przyszłość gospodarki światowej począwszy od połowy lat 20. jawi się więc w czarnych barwach.
      Na tej prognozie chyba tylko my nie możemy stracić. Jeśli bowiem hiperkrach się zdarzy, w spektakularny sposób wykażemy siłę naszych multifraktalnych narzędzi statystycznych. Osobiście wolałbym jednak, aby do niego nie doszło. Gdy tak się stanie i hiperkrach nie nadejdzie, nadal pozostanie nam całkiem dopuszczalna interpretacja, że nasza prognoza była... poprawna, lecz dzisiejszą informacją prasową wpłynęliśmy na zachowania uczestników rynków i, no cóż, właśnie ocaliliśmy świat! - zauważa z lekkim przymrużeniem oka prof. Drożdż.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Już sama nazwa nie budzi zaufania: kryptowaluty. Zlepki bitów, przez wielu uznawane za pieniądz wątpliwej natury. Zaawansowane analizy statystyczne rynku bitcoina, wykonane w Instytucie Fizyki Jądrowej PAN w Krakowie, nie wykazały jednak żadnych istotnych różnic między jego podstawowymi parametrami statystycznymi a ich odpowiednikami wyznaczonymi dla respektowanych rynków finansowych. Wszystko wskazuje na to, że bitcoin jest lepszą walutą niż na pierwszy rzut oka mógłby się wydawać.
      Bitcoin, pierwsza i do dziś najbardziej rozpowszechniona kryptowaluta, przez wielu inwestorów wciąż jest traktowany ze sporą nieufnością. Potocznej opinii przeczy szczegółowa analiza statystyczna rynku bitcoina (BTC), przeprowadzona w Instytucie Fizyki Jądrowej Polskiej Akademii Nauk (IFJ PAN) w Krakowie. Opublikowana w uznanym czasopiśmie naukowym Chaos: An Interdisciplinary Journal of Nonlinear Science, analiza stawia bitcoina – a potencjalnie i inne kryptowaluty – w zaskakująco pozytywnym świetle.
      Wiarygodność tradycyjnych walut wydaje się być w istotnej części psychologicznym artefaktem wynikającym z charakteru ich ewolucji. Podświadomie sądzimy, że skoro kiedyś za pieniądzem stało konkretne dobro materialne, tak jest i dziś. A przecież pod względem fizycznym tradycyjne waluty już jakiś czas temu stały się tym samym, czym kryptowaluty są od chwili narodzin: zlepkiem bitów w pamięciach bankowych komputerów. O rzeczywistej wartości waluty decyduje obecnie nie to, co za nią stoi, ale przede wszystkim to, co się z tą walutą dzieje – czyli jej rynek.
      Gdy po upadku socjalizmu w Europie Środkowej i Wschodniej zaczęły się kształtować nowe, wschodzące rynki finansowe, w naturalny sposób pojawiło się pytanie o ich stabilność. Zidentyfikowano wówczas szereg kryteriów statystycznych, ułatwiających ocenę dojrzałości rynku. Zaciekawiło nas, jakie wyniki otrzymalibyśmy, gdybyśmy za ich pomocą przyjrzeli się wycenianemu obecnie na setki miliardów dolarów rynkowi bitcoina? - mówi prof. dr hab. Stanisław Drożdż (IFJ PAN, Politechnika Krakowska).
      Analizie poddano zmiany cen bitcoina w okresie od 2012 roku do kwietnia 2018 roku, notowane w sekwencjach jednominutowych. Na pierwszy ogień trafiły stopy zwrotu. Istnieje dobra ilościowa ewidencja na to, że na dojrzałym rynku i w dostatecznie krótkich skalach czasowych ich rozkłady prawdopodobieństwa podlegają odwrotnemu prawu kubicznemu. Pod tą groźnie brzmiącą nazwą kryje się prosta zależność: rozkład jest opisany odwrotnością trzeciej potęgi badanej wielkości.
      Początkowo otrzymywane przez nas wykresy wyglądały dość koślawo, co nie wróżyło niczego obiecującego. Gdy jednak uważniej przyjrzeliśmy się danym, raptem się okazało, że owa koślawość pochodzi z pierwszych dwóch lat badanego okresu, a więc z czasu, gdy rynek dopiero się kształtował. Później stopy zwrotu fluktuowały już zgodnie z odwrotnym prawem kubicznym - mówi prof. Drożdż.
      Pod lupę badaczy trafiła następnie zmienność stóp zwrotu. Na dojrzałych rynkach globalnych znaki stóp zwrotu (informujące o tym, czy zarabiamy, czy tracimy) nie są ze sobą skorelowane – i taką właśnie cechę wykazuje rynek bitcoina. Korelacje czasowe w dynamice finansów mogą się jednak pojawić w subtelniejszych zależnościach, na przykład w różnych formach klasteryzacji zmienności. O tego typu efekcie mówi się wtedy, gdy zakres zmienności badanej wielkości ustala się na mniej więcej stałym poziomie na pewien czas określający rozmiar klastra, po czym zakres się zmienia do wielkości znacząco mniejszych lub większych od poprzedniej – i tego typu przemienność ewoluuje w czasie.
      Z klasteryzacją zmienności wiąże się inna cecha: niechęć układu do zmiany trendu. Niechęć ta jest opisywana za pomocą parametru znanego jako wykładnik Hursta. Przyjmuje on wartości od 0 do 1. Wykładnik równy 0,5 oznacza, że przy kolejnym pomiarze badana wielkość ma takie samo prawdopodobieństwo zmiany na plus, co na minus. Wartości poniżej 0,5 sygnalizują skłonność do fluktuowania i odpowiadają sytuacji, gdy wzrost zwiększa prawdopodobieństwo spadku (lub odwrotnie). Wartości powyżej 0,5 wskazują na persystentny charakter zmian: po wzroście mamy większe prawdopodobieństwo kolejnego wzrostu, po spadku – większe kolejnego spadku. Okazuje się, że dla rynku bitcoina wykładnik Hursta zbliża się do wartości 0,5, charakterystycznej dla rynków o wysokiej renomie.
      Jedną z bardziej wyrafinowanych cech sygnalizujących dojrzałość rynku jest multifraktalna natura jego charakterystyk. Multifraktale to fraktale fraktali, czyli obiekty, w których żeby zobaczyć samopodobieństwo, różne fragmenty fraktala trzeba powiększać z różną szybkością. Analizy multifraktalne ujawniają zależności istniejące w wielu skalach. W przypadku bitcoina wykryliśmy multifraktalność właśnie w funkcjach fluktuacji stóp zwrotu, szczególnie dobrze widoczną w ostatnim półroczu badanego okresu. Była ona tego samego typu jak dla normalnych, dojrzałych rynków, takich jak rynki akcji, dolara, ropy czy obligacji - mówi prof. Drożdż i podsumowuje: Najważniejsze parametry statystyczne rynku bitcoina bardzo jednoznacznie wskazują, że już od wielu miesięcy spełnia on wszystkie istotne kryteria finansowej dojrzałości. Wydaje się, że w przypadku innych kryptowalut można będzie oczekiwać pojawienia się podobnej transformacji. Jeśli to się stanie, największy rynek świata, Forex, może się doczekać bardzo realnej konkurencji.
      Ujęte w szerszym kontekście, powyższe stwierdzenia prowadzą do intrygującej obserwacji. Rzeczywisty rynek walutowy osiąga dojrzałość przy wydatnej pomocy banku centralnego lub rządu. Bitcoin natomiast dojrzał samodzielnie, wyłącznie dzięki własnym cechom, integralnie wkomponowanym w fundamenty swego rynku. Zatem którą z tych walut powinniśmy uważać za strukturalnie lepszą?

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...