Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Jesteśmy bardziej oryginalni niż sądzimy, sugerują analizy tekstów literackich przeprowadzone nową metodą stylometrii, zaproponowaną przez naukowców z Instytutu Fizyki Jądrowej PAN w Krakowie. Indywidualność autora widać już w powiązaniach między zaledwie kilkunastoma wyrazami tekstu angielskiego. W językach słowiańskich do identyfikacji twórcy wystarcza nawet mniejsza liczba wyrazów, a na dodatek wynik jest pewniejszy.

Ustalenie, kto jest autorem tekstu, na ogół nie jest trudne – wystarczy przeczytać podpis. Zdarza się jednak, że podpisu nie ma, ponieważ się nie zachował lub został przez autora z premedytacją pominięty. Nierzadko też zamiast imienia i nazwiska widzimy pseudonim. Jak więc zweryfikować, spod czyjego pióra wyszedł historyczny tekst znany jedynie z fragmentów? Jak ustalić rzeczywistego twórcę internetowego paszkwilu? Jak naprawdę wiarygodnie stwierdzić, czy tekst pracy magisterskiej bądź doktorskiej nie jest plagiatem? Tradycyjne metody stylometryczne w wielu przypadkach zawodzą lub nie prowadzą do dostatecznie pewnych wniosków. Na łamach czasopisma Information Sciences naukowcy z Instytutu Fizyki Jądrowej Polskiej Akademii Nauk (IFJ PAN) w Krakowie przedstawili własne narzędzie statystyczne do analizy stylometrycznej. Skonstruowane z użyciem grafów, pozwala ono spojrzeć na strukturę tekstów w jakościowo nowy sposób.

Wnioski płynące z naszych badań z jednej strony są budujące. Wskazują bowiem, że indywidualność każdej osoby przejawia się wyraźnie w sposobie używania już zaskakująco małej liczby wyrazów. Ale jest i druga, ciemniejsza strona medalu. Skoro bowiem okazujemy się tak oryginalni, będzie nas można łatwiej identyfikować po wypowiedziach - mówi prof. dr hab. Stanisław Drożdż (IFJ PAN, Politechnika Krakowska).

Stylometria – czyli nauka zajmująca się wyznaczaniem statystycznych charakterystyk stylu tekstów – opiera się na spostrzeżeniu, że każdy z nas nieco inaczej używa nawet tego samego języka. Jedni mają szerszy zasób słownictwa, inni węższy, ktoś lubi stosować pewne sformułowania i popełnia błędy, ktoś inny unika powtórzeń i jest purystą językowym. A gdy piszemy, różnimy się też sposobem stosowania znaków interpunkcyjnych. W typowym podejściu stylometrycznym zazwyczaj bada się podstawowe cechy tekstu, np. częstotliwość występowania poszczególnych wyrazów, interpunkcję zaś się ignoruje. Analizy są przeprowadzane dla badanego tekstu oraz dla tekstów napisanych przez potencjalnych, dobrze znanych autorów. Za twórcę uznaje się tę osobę, której dzieła mają parametry o wartościach najbardziej zbliżonych do otrzymanych dla identyfikowanego materiału.

My zaproponowaliśmy, żeby charakterystycznych cech stylu szukać w sieciowej reprezentacji tekstu, za pomocą grafów - wyjaśnia Tomasz Stanisz, doktorant IFJ PAN i pierwszy autor publikacji, po czym precyzuje: Graf to zbiór punktów, czyli wierzchołków grafu, połączonych liniami, czyli krawędziami grafu. W najprostszym przypadku – w tak zwanej sieci nieważonej – wierzchołki odpowiadają poszczególnym wyrazom i są połączone krawędziami wtedy i tylko wtedy, gdy w tekście dane dwa wyrazy przynajmniej raz wystąpiły obok siebie. Na przykład dla zdania 'Ala ma kota' graf miałby trzy wierzchołki, po jednym dla każdego wyrazu, ale krawędzie byłyby tylko dwie, jedna między 'Ala' a 'ma', druga między 'ma' a 'kota'.

Podczas konstruowania swoich narzędzi stylometrycznych badacze z IFJ PAN testowali różne rodzaje grafów. Najlepsze wyniki otrzymano dla grafów ważonych, a więc takich, w których każda krawędź niesie informację o liczbie wystąpień odpowiadającego jej połączenia między wyrazami. W takich sieciach najbardziej przydatne okazały się dwa parametry: krotność węzłów i współczynnik gronowania. Pierwszy z nich opisuje liczbę krawędzi wychodzących z danego węzła i bezpośrednio wiąże się z liczbą wystąpień danego wyrazu w tekście. Z kolei współczynnik gronowania opisuje prawdopodobieństwo tego, że dwa wyrazy połączone krawędzią z danym wyrazem są połączone krawędzią także między sobą.

Za pomocą tak przygotowanych narzędzi statystycznych krakowscy fizycy przyjrzeli się 96 książkom: po sześciu powieściom ośmiu znanych autorów angielskich (Austen, Conrad, Defoe, Dickens, Doyle, Eliot, Orwell, Twain) i ośmiu polskich (Korczak, Kraszewski, Lam, Orzeszkowa, Prus, Reymont, Sienkiewicz, Żeromski). W gronie autorów było dwóch laureatów literackiej Nagrody Nobla (Władysław Reymont i Henryk Sienkiewicz). Wszystkie teksty pobrano z serwisów Project Gutenberg, Wikisources i Wolne Lektury. Grupa z IFJ PAN sprawdzała następnie, z jaką wiarygodnością można w ramach jednego języka stwierdzić autorstwo 12 losowo wybranych dzieł, traktując pozostałą część puli utworów jako materiał do porównań.

W przypadku tekstów angielskich identyfikowaliśmy autorów poprawnie w niemal 90% przypadków. Na dodatek by osiągnąć sukces należało prześledzić powiązania między zaledwie 10-12 wyrazami badanego tekstu. Wbrew naiwnej intuicji, dalsze zwiększanie liczby badanych wyrazów nie podnosiło znacząco skuteczności metody - mówi Tomasz Stanisz.

W języku polskim ustalenie autorstwa okazało się jeszcze prostsze: wystarczało prześledzić powiązania zaledwie 5-6 wyrazów. Co szczególnie ciekawe, mimo dwukrotnie mniejszej niż w języku angielskim puli istotnych wyrazów, prawdopodobieństwo poprawnej identyfikacji wzrastało – nawet do 95%! Tak wysoka poprawność diagnoz była jednak osiągana tylko wtedy, gdy jako osobne wyrazy traktowano także znaki interpunkcyjne. W obu językach pominięcie interpunkcji skutkowało wyraźną redukcją liczby poprawnych odgadnięć. Zaobserwowana rola interpunkcji to kolejne potwierdzenie wniosków z publikacji grupy prof. Drożdża z 2017 roku, gdzie wykazano, że interpunkcja pełni w języku rolę równie ważną jak same wyrazy.

W porównaniu z językiem angielskim język polski wydaje się dawać większe możliwości ujawniania się stylu autora. Sądzimy, że podobną cechą charakteryzują się również pozostałe języki słowiańskie. Angielski jest bowiem językiem pozycyjnym, co oznacza, że istotna jest w nim kolejność wyrazów w zdaniu. Taki język pozostawia mniej miejsca na indywidualny styl wypowiedzi niż języki słowiańskie, w których o roli słowa czy wyrazu w zdaniu decyduje fleksja, czyli odmiana. Dopuszcza ona bowiem większą swobodę organizacji kolejności wyrazów w zdaniu przy niezmienionym jego znaczeniu - podsumowuje prof. Drożdż.


« powrót do artykułu

Share this post


Link to post
Share on other sites

To teraz kolej na analizę innych form literackich: dramaty Szekspira, przemówienia znanych polityków, księgi biblijne przypisywane jednemu autorowi…

Share this post


Link to post
Share on other sites

Rewelacja - wiele tekstów historycznych czeka na taką analizę - w tym właśnie wspomniane przez Ushera Księgi Biblijne. Będzie można poczynić dalsze ustalenia co do źródeł poszczególnych fragmentów a może i dokopać się do wniosków kiedy tak naprawdę powstała np. opowieść o Pierwszych Rodzicach i Raju.

Share this post


Link to post
Share on other sites

Trochę Cię poniosło. Do analizy wykorzystano dzieła autorów zaliczanych do mistrzów narracji, więc wynik był raczej oczywisty. Rzecz w tym, że mistrzowska kreacja oznacza również zróżnicowanie języka postaci, zatem dobry utwór, w którym przeważają dialogi (w szczególności dramat) nie powinien dawać wyników jednoznacznych jako całość, ale dopiero po rozbiciu na części - oddzielnie odautorska narracja (w dramacie - didaskalia), oddzielnie wypowiedzi każdej postaci.

W związku z tym w poprzedniej wiadomości wskazałem przykłady tekstów, których jednoznaczna analiza z różnych względów może być utrudniona lub niemożliwa niezależnie od użytej  metody.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Na Uniwersytecie w Glasgow powstał sztuczny język, który z dużą trafnością potrafi rozróżniać whisky. Naukowcy mają nadzieję, że uda się go wykorzystać m.in. do przeciwdziałania fałszowaniu alkoholi.
      Ułożone w szachownicę submikroskopowe paski złota i glinu spełniają funkcję kubków smakowych. Podczas testów mierzy się, jak po zalaniu próbką alkoholu absorbują światło. Analiza statystyczna bardzo subtelnych różnic w zakresie absorbowania światła przez metale sztucznego języka (rezonansu plazmonowego) pozwalała Szkotom identyfikować różne typy whisky.
      Autorzy publikacji z pisma Nanoscale wykorzystali sztuczny język do próbkowania wyboru whisky z destylarni Glenfiddich, Laphroaig i Glen Marnoch.
      Okazało się, że język był w stanie wyczuć różnice między napojami z ponad 99% trafnością. Radził sobie z wychwytywaniem subtelnych różnic między tą samą whisky leżakowaną w innych beczkach i dojrzewającą 12, 15 lub 18 lat.
      Nie jesteśmy pierwszymi badaczami, którzy stworzyli sztuczny język, ale jako pierwsi uzyskaliśmy sztuczny język wykorzystujący 2 rodzaje nanokubków smakowych z metalu. Zapewniają one więcej informacji na temat smaku każdej próbki i umożliwiają szybszą i dokładniejszą reakcję - opowiada dr Alasdair Clark. Choć w tym eksperymencie skupiliśmy się na whisky, sztuczny język da się łatwo wykorzystać do "smakowania" właściwie każdej cieczy, co oznacza, że może on znaleźć bardzo różne zastosowania: od identyfikowania fałszowanego alkoholu po badanie bezpieczeństwa i jakości żywności [...].

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Nieodległa przyszłość globalnej gospodarki rysuje się w skrajnie czarnych barwach. Ta pesymistyczna prognoza płynie z zaawansowanych analiz statystycznych indeksu giełdowego S&P 500, opublikowanych ostatnio przez naukowców z Instytutu Fizyki Jądrowej PAN w Krakowie. Na ich podstawie badacze wyjaśniają, dlaczego za kilka do kilkunastu lat można się spodziewać krachu finansowego jakiego w dziejach jeszcze nie było – i przy okazji tłumaczą, dlaczego czytając ten tekst masz szansę ocalić świat.
      Czarny Poniedziałek, pęknięcie bańki internetowej czy upadek banku Lehman Brothers. Wydarzenia te zachwiały światową gospodarką. Wkrótce możemy jednak mieć do czynienia z tak gigantycznym załamaniem rynków finansowych, że wszystkie wcześniejsze krachy wydadzą się przy nim mało istotnymi potknięciami. Ta katastroficzna wizja wyłania się z multifraktalnych analiz rynków finansowych, zaprezentowanych na łamach cenionego czasopisma Complexity przez naukowców z Instytutu Fizyki Jądrowej Polskiej Akademii Nauk (IFJ PAN) w Krakowie – i współgra z ich wcześniejszymi prognozami sprzed kilkunastu lat.
      Dane są, niestety, dość jednoznacznie. Wygląda na to, że począwszy od połowy lat dwudziestych wysoce prawdopodobny jest globalny krach finansowy o dotychczas niespotykanej skali. Tym razem zmiana będzie jakościowa. Wręcz radykalna! - mówi prof. dr hab. Stanisław Drożdż (IFJ PAN, Politechnika Krakowska).
      W swojej najnowszej publikacji naukowcy z IFJ PAN przyglądali się różnym danym ekonomicznym, m.in. dziennym notowaniom indeksu Standard & Poor 500 w okresie od stycznia 1950 roku do grudnia 2016 (S&P 500 to największy indeks giełdowy świata, uwzględniający 500 największych spółek, w znacznej części o charakterze globalnym). Podstawowym celem artykułu krakowskich badaczy nie było snucie katastroficznych prognoz, lecz wiarygodne przedstawienie zagadnień związanych z występowaniem efektów multifraktalnych (a więc takich, w których by zobaczyć samopodobieństwo różne fragmenty badanej struktury trzeba powiększać z różną szybkością) w finansowych szeregach czasowych (czyli np. w notowaniach cen czy w wartościach indeksów giełdowych). Szczególną uwagę naukowców zwrócił wykres przedstawiający zmiany wykładnika Hursta, wyliczonego dla indeksu S&P 500 na podstawie widm multifraktalnych otrzymanych w trakcie analiz.
      Wykładnik Hursta może przyjmować wartości od 0 do 1 i odzwierciedla stopień podatności układu do zmiany trendu. Gdy jest równy 0,5, badana fluktuująca wielkość ma przy kolejnym pomiarze takie samo prawdopodobieństwo zmiany na plus, co na minus. Wartości poniżej 0,5 sygnalizują większą skłonność do przemienności kierunków fluktuacji: wzrost zwiększa prawdopodobieństwo spadku lub odwrotnie, co w kontekście finansów można interpretować jako symptom nerwowości. Wartości powyżej 0,5 wskazują na persystentny charakter zmian i skłonność układu do budowania trendu. Po wzroście mamy wtedy większe prawdopodobieństwo kolejnego wzrostu, a po spadku – większe kolejnego spadku.
      Za rynki stabilne, dojrzałe, uznaje się takie, których wykładnik Hursta jest równy 0,5 lub wykazuje niewielkie odchylenia od tej wartości. Wykres wykładnika Hursta dla indeksu S&P 500 rzeczywiście zaczyna się od 0,5. 19 października 1987 roku dochodzi jednak do krachu – to słynny Czarny Poniedziałek. Wykładnik nieznacznie się wtedy obniża, niemniej przez ponad dekadę znów zachowuje w miarę stały poziom. Na przełomie wieków pojawia się wyraźny spadek, a już w marcu 2000 roku pęka bańka internetowa. Tak jak wcześniej, tak po niej wykładnik Hursta ponownie się stabilizuje, jednak na krótszy okres. Już pod koniec pierwszej dekady nagle zaczyna szybko rosnąć, by załamać się po bankructwie banku Lehman Brothers we wrześniu 2008 roku. Od tego momentu wykładnik Hursta nie tylko nie powrócił w okolice wartości 0,5, ale w ostatniej dekadzie dość wyraźnie i systematycznie zszedł nawet poniżej szczególnie niepokojącej wartości 0,4.
      Tym, co również uderza w zmianach wykładnika Hursta dla indeksu S&P 500, są skracające się odstępy czasowe między kolejnymi krachami oraz fakt, że po każdym załamaniu wskaźnik nigdy nie wracał do pierwotnego poziomu. Mamy tu wyraźny sygnał, że nerwowość rynku światowego narasta cały czas, od dekad, niezależnie od zmieniających się ludzi, podmiotów gospodarczych czy technologii - zauważa prof. Drożdż.
      Zaobserwowana zależność koresponduje z inną, wykrytą przez prof. Drożdża i jego współpracowników już w 2003 roku. W publikacji w czasopiśmie Physica A: Statistical Mechanics and its Applications na jednym z wykresów przedstawiono wtedy zmiany logarytmu z indeksu S&P 500 począwszy od roku 1800 (wartości sprzed wprowadzenia indeksu S&P 500 zrekonstruowano na podstawie danych historycznych). Zygzakowata krzywa wyginała się wzdłuż sinusoidy o rosnącej częstotliwości, coraz dynamiczniej wznoszącej się ku asymptocie usytuowanej w okolicach roku 2025. Każdy kolejny krach był tu poprzedzony mniejszymi wahnięciami, swoistymi minikrachami, które nazwano prekursorami. Wiele prekursorów miało swoje, jeszcze mniejsze prekursory, wykazując w ten sposób pewne samopodobieństwo.
      Rzecz w tym, że analogiczna samopodobna zależność może działać także w większych skalach czasowych. Wtedy dotychczasowe krachy byłyby jedynie prekursorami wydarzenia znacznie większego i bardziej groźnego. Gdy proces o podobnej dynamice pojawia się w fizyce, mówimy o przejściu fazowym II rodzaju, takim jak pojawianie się czy też zanik właściwości magnetycznych w materiale magnetycznym w pobliżu temperatury Curie - mówi prof. Drożdż.
      Otwarte pozostaje pytanie o wiarygodność tak pesymistycznej prognozy. Jeśli w najbliższych latach rynki finansowe jakościowo się nie zmienią, czarny wariant rozwoju wydarzeń ma szanse stać się rzeczywistością. Trzeba jednak pamiętać o istotnej różnicy między światami matematyki czy fizyki, a światem finansów. Prawa i modele matematyczne konstruowane w ramach fizyki są skuteczne i w miarę nieskomplikowane m.in. z uwagi na wewnętrzną prostotę i niezmienność obiektów, których dotyczą. Rynki finansowe mają znacznie bardziej złożony charakter. Ich uczestnicy są zmienni: pamiętają, uczą się, potrafią reagować zarówno logicznie, jak i emocjonalnie. Nie brakuje przykładów udowadniających, że gdy wśród istotnej liczby uczestników rynku upowszechni się wiedza o jakimś prawie mającym moc prognozowania, rynek błyskawicznie się zmienia, a wykryta regularność zanika. Czy podobnie będzie w przypadku nadciągającego hiperkrachu?
      Problem w tym, że nie wiadomo, co i jak musiałoby wpłynąć na rynek globalny, by zapobiec nadciągającemu załamaniu. Lekarstwem mogłyby być na przykład formujące się rynki kryptowalut, ale czy na pewno się nim staną? Nie wiadomo. Nie jest nawet pewne, czy dysponując wiedzą o koniecznych zmianach udałoby się je wprowadzić w zaledwie kilka lat – a nie wygląda na to, żebyśmy mieli ich więcej do dyspozycji. Przyszłość gospodarki światowej począwszy od połowy lat 20. jawi się więc w czarnych barwach.
      Na tej prognozie chyba tylko my nie możemy stracić. Jeśli bowiem hiperkrach się zdarzy, w spektakularny sposób wykażemy siłę naszych multifraktalnych narzędzi statystycznych. Osobiście wolałbym jednak, aby do niego nie doszło. Gdy tak się stanie i hiperkrach nie nadejdzie, nadal pozostanie nam całkiem dopuszczalna interpretacja, że nasza prognoza była... poprawna, lecz dzisiejszą informacją prasową wpłynęliśmy na zachowania uczestników rynków i, no cóż, właśnie ocaliliśmy świat! - zauważa z lekkim przymrużeniem oka prof. Drożdż.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Już sama nazwa nie budzi zaufania: kryptowaluty. Zlepki bitów, przez wielu uznawane za pieniądz wątpliwej natury. Zaawansowane analizy statystyczne rynku bitcoina, wykonane w Instytucie Fizyki Jądrowej PAN w Krakowie, nie wykazały jednak żadnych istotnych różnic między jego podstawowymi parametrami statystycznymi a ich odpowiednikami wyznaczonymi dla respektowanych rynków finansowych. Wszystko wskazuje na to, że bitcoin jest lepszą walutą niż na pierwszy rzut oka mógłby się wydawać.
      Bitcoin, pierwsza i do dziś najbardziej rozpowszechniona kryptowaluta, przez wielu inwestorów wciąż jest traktowany ze sporą nieufnością. Potocznej opinii przeczy szczegółowa analiza statystyczna rynku bitcoina (BTC), przeprowadzona w Instytucie Fizyki Jądrowej Polskiej Akademii Nauk (IFJ PAN) w Krakowie. Opublikowana w uznanym czasopiśmie naukowym Chaos: An Interdisciplinary Journal of Nonlinear Science, analiza stawia bitcoina – a potencjalnie i inne kryptowaluty – w zaskakująco pozytywnym świetle.
      Wiarygodność tradycyjnych walut wydaje się być w istotnej części psychologicznym artefaktem wynikającym z charakteru ich ewolucji. Podświadomie sądzimy, że skoro kiedyś za pieniądzem stało konkretne dobro materialne, tak jest i dziś. A przecież pod względem fizycznym tradycyjne waluty już jakiś czas temu stały się tym samym, czym kryptowaluty są od chwili narodzin: zlepkiem bitów w pamięciach bankowych komputerów. O rzeczywistej wartości waluty decyduje obecnie nie to, co za nią stoi, ale przede wszystkim to, co się z tą walutą dzieje – czyli jej rynek.
      Gdy po upadku socjalizmu w Europie Środkowej i Wschodniej zaczęły się kształtować nowe, wschodzące rynki finansowe, w naturalny sposób pojawiło się pytanie o ich stabilność. Zidentyfikowano wówczas szereg kryteriów statystycznych, ułatwiających ocenę dojrzałości rynku. Zaciekawiło nas, jakie wyniki otrzymalibyśmy, gdybyśmy za ich pomocą przyjrzeli się wycenianemu obecnie na setki miliardów dolarów rynkowi bitcoina? - mówi prof. dr hab. Stanisław Drożdż (IFJ PAN, Politechnika Krakowska).
      Analizie poddano zmiany cen bitcoina w okresie od 2012 roku do kwietnia 2018 roku, notowane w sekwencjach jednominutowych. Na pierwszy ogień trafiły stopy zwrotu. Istnieje dobra ilościowa ewidencja na to, że na dojrzałym rynku i w dostatecznie krótkich skalach czasowych ich rozkłady prawdopodobieństwa podlegają odwrotnemu prawu kubicznemu. Pod tą groźnie brzmiącą nazwą kryje się prosta zależność: rozkład jest opisany odwrotnością trzeciej potęgi badanej wielkości.
      Początkowo otrzymywane przez nas wykresy wyglądały dość koślawo, co nie wróżyło niczego obiecującego. Gdy jednak uważniej przyjrzeliśmy się danym, raptem się okazało, że owa koślawość pochodzi z pierwszych dwóch lat badanego okresu, a więc z czasu, gdy rynek dopiero się kształtował. Później stopy zwrotu fluktuowały już zgodnie z odwrotnym prawem kubicznym - mówi prof. Drożdż.
      Pod lupę badaczy trafiła następnie zmienność stóp zwrotu. Na dojrzałych rynkach globalnych znaki stóp zwrotu (informujące o tym, czy zarabiamy, czy tracimy) nie są ze sobą skorelowane – i taką właśnie cechę wykazuje rynek bitcoina. Korelacje czasowe w dynamice finansów mogą się jednak pojawić w subtelniejszych zależnościach, na przykład w różnych formach klasteryzacji zmienności. O tego typu efekcie mówi się wtedy, gdy zakres zmienności badanej wielkości ustala się na mniej więcej stałym poziomie na pewien czas określający rozmiar klastra, po czym zakres się zmienia do wielkości znacząco mniejszych lub większych od poprzedniej – i tego typu przemienność ewoluuje w czasie.
      Z klasteryzacją zmienności wiąże się inna cecha: niechęć układu do zmiany trendu. Niechęć ta jest opisywana za pomocą parametru znanego jako wykładnik Hursta. Przyjmuje on wartości od 0 do 1. Wykładnik równy 0,5 oznacza, że przy kolejnym pomiarze badana wielkość ma takie samo prawdopodobieństwo zmiany na plus, co na minus. Wartości poniżej 0,5 sygnalizują skłonność do fluktuowania i odpowiadają sytuacji, gdy wzrost zwiększa prawdopodobieństwo spadku (lub odwrotnie). Wartości powyżej 0,5 wskazują na persystentny charakter zmian: po wzroście mamy większe prawdopodobieństwo kolejnego wzrostu, po spadku – większe kolejnego spadku. Okazuje się, że dla rynku bitcoina wykładnik Hursta zbliża się do wartości 0,5, charakterystycznej dla rynków o wysokiej renomie.
      Jedną z bardziej wyrafinowanych cech sygnalizujących dojrzałość rynku jest multifraktalna natura jego charakterystyk. Multifraktale to fraktale fraktali, czyli obiekty, w których żeby zobaczyć samopodobieństwo, różne fragmenty fraktala trzeba powiększać z różną szybkością. Analizy multifraktalne ujawniają zależności istniejące w wielu skalach. W przypadku bitcoina wykryliśmy multifraktalność właśnie w funkcjach fluktuacji stóp zwrotu, szczególnie dobrze widoczną w ostatnim półroczu badanego okresu. Była ona tego samego typu jak dla normalnych, dojrzałych rynków, takich jak rynki akcji, dolara, ropy czy obligacji - mówi prof. Drożdż i podsumowuje: Najważniejsze parametry statystyczne rynku bitcoina bardzo jednoznacznie wskazują, że już od wielu miesięcy spełnia on wszystkie istotne kryteria finansowej dojrzałości. Wydaje się, że w przypadku innych kryptowalut można będzie oczekiwać pojawienia się podobnej transformacji. Jeśli to się stanie, największy rynek świata, Forex, może się doczekać bardzo realnej konkurencji.
      Ujęte w szerszym kontekście, powyższe stwierdzenia prowadzą do intrygującej obserwacji. Rzeczywisty rynek walutowy osiąga dojrzałość przy wydatnej pomocy banku centralnego lub rządu. Bitcoin natomiast dojrzał samodzielnie, wyłącznie dzięki własnym cechom, integralnie wkomponowanym w fundamenty swego rynku. Zatem którą z tych walut powinniśmy uważać za strukturalnie lepszą?

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Psycholodzy z zespołu prof. Clausa-Christiana Carbona z Uniwersytetu Ottona i Fryderyka w Bambergu odkryli, że ludzie rozpoznają czyjąś płeć w 244 milisekundy (243,9 ms od początku bodźca), a oceny atrakcyjności dokonują 59 milisekund (58,6) później.
      Jedna z teorii głosi, że wyewoluowaliśmy, by szybko wykrywać atrakcyjność, żeby zwiększyć swoje szanse na wybór odpowiedniego partnera.
      Podczas eksperymentu monitorowano aktywność mózgu 25 studentów, którzy oglądali 100 portretów i odnotowywali, jakiej płci są uwiecznione na nich osoby i czy są one atrakcyjne.
      Carbon podkreśla, że prędkość, z jaką dokonywano oceny po identyfikacji płci, sugeruje, że ludzie silnie kierują się płciowymi stereotypami atrakcyjności.
      Choć może się to wydawać bardzo niesprawiedliwe, atrakcyjność twarzy bardzo ułatwia codzienne życie. Atrakcyjni dorośli są [na przykład] postrzegani jako bardziej inteligentni. Oprócz tego atrakcyjni ludzie są generalnie bardziej zadowoleni z życia i szczęśliwi.
      Wyniki badań Niemców ukazały się w piśmie Neuroscience Letters.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W niektórych układach fizycznych nawet dość odległe od siebie elementy potrafią synchronizować swoje akcje. Zjawisko na pierwszy rzut oka wygląda dość tajemniczo. Na przykładzie sieci prostych elektronicznych oscylatorów połączonych w pierścień naukowcy z Instytutu Fizyki Jądrowej Polskiej Akademii Nauk w Krakowie wykazali jednak, że w rzeczywistości synchronizację na odległość można – przynajmniej w pewnych przypadkach – bardzo dobrze wytłumaczyć.
      Do najbardziej fascynujących procesów fizycznych, chemicznych czy biologicznych z dużym prawdopodobieństwem należą te, w których "coś" powstaje z "niczego". Dlaczego w pozornie jednorodnej warstwie cieczy nagle pojawiają się rozchodzące się koncentryczne kręgi, jak w przypadku reakcji Biełousowa-Żabotyńskiego? Dlaczego stułbia może mieć wiele ramion, zawsze rozmieszczonych tak regularnie? Co powoduje, że w sieci kilkunastu połączonych w pierścień prostych oscylatorów elektronicznych niektóre odległe elementy nagle zaczynają działać w tym samym rytmie? U podstaw podobnych procesów leżą uniwersalne, lecz wciąż słabo poznane mechanizmy synchronizacji aktywności elementów składowych układu. Niuanse jednego z takich mechanizmów zostały właśnie wyjaśnione przez naukowców z Instytutu Fizyki Jądrowej Polskiej Akademii Nauk (IFJ PAN) w Krakowie we współpracy z fizykami z włoskich uniwersytetów w Palermo i Katanii.
      Synchronizacja prowadząca do wyłonienia się kształtów (czyli odmiany morfogenezy) może się przejawiać w układach o różnej naturze, a za jej występowanie mogą być odpowiedzialne różne mechanizmy. Metaforycznie zjawisko można zobrazować za pomocą tego, co się dzieje w dość jednorodnym gronie początkowo nieznanych sobie uczestników dużego przyjęcia. W krótkim czasie uformują się tu dobrze widoczne grupki zainteresowań, w ramach których ludzie będą spędzali większość czasu na rozmowach między sobą. Tego typu zjawisko, będące rezultatem specyficznych cech pewnych elementów bądź powstające wskutek przypadkowych zdarzeń, jest określane mianem synchronizacji grupowej lub klastrowej. Występuje ono w wielu układach fizycznych, a przykładem może być choćby synchronizacja neuronów w ludzkim mózgu.
      W naszych najnowszych badaniach zajmowaliśmy się nieco podobnym rodzajem synchronizacji: synchronizacją na odległość. Mówimy o niej wtedy, gdy swoje akcje synchronizują elementy lub grupy elementów, które nie znajdują się w bezpośrednim kontakcie ze sobą. Co ciekawe, synchronizacja na odległość zachodzi w taki sposób, że nie wpływa na zachowanie elementów pośredniczących w przekazie informacji. Przypomina to sytuację, gdy dwóch ludzi wymienia między sobą informacje za pośrednictwem kuriera, przy czym kurier nie tylko nie potrafi odczytać treści komunikatów, ale nierzadko jest wręcz całkowicie nieświadomy istnienia ukrytego przekazu - tłumaczy dr hab. Ludovico Minati (IFJ PAN), główny autor publikacji w znanym czasopiśmie naukowym Chaos.
      Synchronizację na odległość obserwuje się między neuronami w odległych od siebie obszarach mózgu, między zjawiskami pogodowymi zachodzącymi nad różnymi kontynentami, a nawet między elementami obwodów elektronicznych. W 2015 roku dr Minati, wówczas na University of Trento, opisał taką synchronizację w sieciach zbudowanych z zaledwie kilkunastu prostych oscylatorów elektronicznych połączonych szeregowo w pierścień. Zauważono wtedy, że poszczególne oscylatory próbowały się synchronizować nie tylko z najbliższymi sąsiadami w pierścieniu, ale także z niektórymi bardziej odległymi, a jednocześnie pozostawały w mniejszym stopniu zdesynchronizowane z pozostałymi.
      Obserwowaliśmy ten efekt z prawdziwym zafascynowaniem, ponieważ pojawił się w urządzeniu znacznie mniejszym niż mózg, a nade wszystko radykalnie od niego prostszym. Zjawisko zostało dokładnie opisane, nie byliśmy jednak w stanie w pełni zrozumieć jego natury. Zadowalające wyjaśnienie przedstawiliśmy dopiero w naszej najnowszej publikacji - mówi dr Minati.
      Naukowcy z IFJ PAN badali pierścienie oscylatorów eksperymentalnie oraz za pomocą symulacji komputerowych. Przełomowe okazało się spostrzeżenie, że informacja musi się propagować w pierścieniach nie za pomocą jednej, lecz aż trzech częstotliwości (pod tym względem zjawisko przypomina stosowaną w radiotechnice modulację amplitud). Każdy oscylator nie tylko generował własny sygnał o chaotycznej naturze, ale także reagował na sygnały pochodzące z pobliskich oscylatorów, a przenoszone w pozostałych dwóch pasmach. W zależności od swojej fazy w danym oscylatorze, sygnały te wzmacniały się lub osłabiały w sposób przypominający interferencję. Badacze obserwowali wtedy wzorce przypominające doskonale znane z optyki prążki dyfrakcyjne. Między oscylatorami, w których dochodziło do interferencyjnego wzmocnienia lub wygaszenia, pojawiały się efekty typowe dla synchronizacji na odległość.
      W celu lepszego zrozumienia natury obserwowanej synchronizacji, krakowscy fizycy poddawali pierścienie oscylatorów dodatkowym testom. Badano wrażliwość synchronizacji na szum o dużej intensywności wprowadzany w różne miejsca układów, symulowano różną liczbę oscylatorów w pierścieniu oraz efekty pojawiające się przy jego otwarciu. Analiza wyników pozwoliła ustalić, że w badanych pierścieniach oscylatorów synchronizacja na odległość jest nie tyle cechą charakterystyczną dla całego układu, ile wynikiem lokalnych oddziaływań poszczególnych oscylatorów z ich otoczeniem. Przy okazji sprawdzono także, czy synchronizacja na odległość mogłaby służyć do przenoszenia sygnału wprowadzanego do układu z zewnątrz. Wynik był jednak negatywny.
      Zrozumienie mechanizmów związanych z występowaniem złożonych współzależności między elementami w układach o różnej naturze jest wielkim wyzwaniem w naukach o zjawiskach nieliniowych. My dobrze poznaliśmy tylko pewną klasę mechanizmów odpowiedzialnych za niektóre rodzaje synchronizacji na odległość. Pełniejsza wiedza o podobnych procesach miałaby ogromne znaczenie teoretyczne i praktyczne. Kto wie, może potrafilibyśmy przewidywać na przykład kolektywne zachowania różnych sieci społecznych czy nawet rynków finansowych? - podsumowuje prof. dr hab. Stanisław Drożdż (IFJ PAN, Politechnika Krakowska).

      « powrót do artykułu
×
×
  • Create New...