Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Obecny kryzys finansowy uświadomił wielu, że zdecydowanie przeceniano stabilność gospodarki rynkowej i że metody inwestowania stosowane przez banki nie są właściwe. Brytyjski naukowiec w swojej pracy pokazał, dlaczego podejmujemy nadmierne ryzyko.

Inwestor musi w swojej pracy ogarnąć i porównać niezliczoną ilość możliwych scenariuszy rozwoju rynku. Nieskończoną liczbę możliwości trzeba jednak ograniczyć do kilku najbardziej prawdopodobnych i możliwych do wyrażenia niewieloma współczynnikami. Inwestorzy stosują dwie strategie oceniania potencjalnego rozwoju rynku: uśrednianie równoległe - uwzględnianie możliwych scenariuszy rozwoju jednocześnie; lub uśrednianie czasowe - traktowanie ich jako ciągu następujących po sobie.

Najczęściej stosowane jest pierwsze podejście, uśrednianie równoległe: konstruuje się różne scenariusze wychodząc od tych samych założeń i uśrednia ich wyniki. Uśrednianie czasowe polega zaś na ułożeniu scenariuszy na linii czasu, gdzie wynik jednego jest stanem początkowym dla następnego.

Jak pisze w swoim studium doktor Ole Peters z brytyjskiego Imperial College London, ponieważ my sami żyjemy w linii czasu, każda decyzja ogranicza możliwość manewru przy podejmowaniu następnej, dlatego uśrednianie czasowe pozwala lepiej przewidywać wyniki inwestycji. Uśrednianie równoległe nie bierze zaś pod uwagę tak prostej kwestii, że raz podjętych decyzji nie da się cofnąć.

Oba podejścia dają bardzo różne wyniki, powszechnie stosowane uśrednianie równoległe nie bierze pod uwagę rynkowych fluktuacji, przez co zdecydowanie zaniża ryzyko inwestycji, sprzyjając inwestowaniu bardziej niebezpiecznemu.

Ostatni kryzys finansowy pokazał dobitnie, jakie mogą być skutki zbyt agresywnego inwestowania, zarówno w transakcjach między bankami, jak i bankami i pożyczkobiorcami. Uśrednianie czasowe w planowaniu wymaga wyjątkowych okoliczności, aby współczynnik inwestycji przekraczał 1. Współczynniki inwestycyjne, osiągane przez banki przed kryzysem, wywołałyby alarm, dochodziły bowiem często do 40-60. Duże zyski okazały się mało realne, powodując w pewnym momencie zapaść rynku. Uśrednianie czasowe sprzyjałoby lepszej ocenie ryzyka, bardziej odpowiedzialnej polityce i skutkowało zdrowszym i stabilniejszym rynkiem.

Praca Optimal leverage from non-ergodicity ukazała się w Quantitative Finance.

Share this post


Link to post
Share on other sites

Sprawa jest prosta i nie trzeba tu naukowców.

Problem był z ryzykiem to fakt. Wziął się z dwóch rzeczy. Pierwsza to owczy pęd czyli analogia dresiarza w BMW czy przedstawiciela w białym seicento vanie. Kupił bmw bo inni kupili jedzie jak wariat bo ktoś inny tak jechał i tak dalej. Innymi słowy jest tu brak świadomości ryzyka. Drugi porblem to akceptowanie ryzyka czyli analogia do kierowcy rajdowego który jest świadomy ryzyka ale jednak je podejmuje im nagroda większa tym chętniej. I dopiero tutaj jest miejsce na jakąś analizę jak subiektywna ocena odbiega od obiektywnego ryzyka. Na przykład dawno nie było wypadku (wyścigi) czy kryzysu (finanse) tym będzie większa tendencja do zaniżania ryzyka. A porblem się bierze jeśli druga grupa nie doceni ryzyka a reszta nieświadomie pobiegnie, co ich przekona o słuszności swoich decyzji i zachęci do podjęcia dalszego ryzyka.

Share this post


Link to post
Share on other sites

No ta, ale każdy kto inwestuje swoje pieniądze prędzej czy później spotka się z tematem zarządzaniem ryzykiem. Niechybnie sam będzie musiał aktywnie tym ryzykiem zarządzać. Inaczej statystycznie spotka go strata.

Poza tym, ów naukowiec traktuje fluktuacje kursów jako coś nienormalnego, nagłego i niespodziewanego. A przecież fluktuacje są naturą rynków kapitałowych.

Share this post


Link to post
Share on other sites

Większych bzdur już dawno nie czytałem i jeszcze ktoś to wydaje. Facetowi się pomyliło zarządzanie ryzykiem z inwestowaniem. Śmieszne, że pomimo tego, iż rynki funkcjonują już tak długo nadal wielu ludiz ma problemy z podstawami.

A poz tym ten kryzys jaki i 90% innych kryzysów nie mam nic wspólnego ze złym szacowaniem ryzyka itp. tylko jest wywołany nadmiarem pustego pieniądza w obiegu. Nad tym powini się głowić naukowcy - troretycy

Share this post


Link to post
Share on other sites

Belisariusz, ale to przecież Brytyjski naukowiec a to renoma sama w sobie tak jak Amerykański...jak coś mówi to jest prawda zasługująca na głoszenie światu nowiny.

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


  • Similar Content

    • By KopalniaWiedzy.pl
      Ciągły rozwój technologii powoduje, że energetyka słoneczna staje się coraz bardziej atrakcyjną alternatywą wobec innych sposobów produkcji energii. Farmy słoneczne powstają nawet w Kanadzie, amerykańska Solar Energy Intustries Association opublikowała właśnie raport za rok 2010, w którym donosi o niemal 2-krotnym powiększeniu się rynku energetyki słonecznej.
      W roku 2010 w USA zainstalowano różnego typu instalacje słoneczne, dostarczające 956 megawatów mocy. W sumie w USA z energii słonecznej pochodzi 2,6 gigawatów. To wciąż mniej niż 1% energii produkowanej na ternie Stanów, jednak rynek szybko się powiększa. W roku 2009 wartość inwestycji w energię pozyskiwaną ze Słońca wyniosła 3,6 miliarda USD. Rok później było to już około 6 miliardów.
      Oczywiście, najwięcej inwestycji dokonano tam, gdzie są one najbardziej opłacalne, a zatem w Kalifornii. Sporo zainwestowano na Florydzie, ale w położonym znacznie bardziej na północ New Jersey inwestycje były większe.
      Wraz ze wzrostem wydajności instalacji słonecznych, będą z pewnością rosły też nakłady inwestycyjne. Energia ze Słońca stanie się bowiem coraz bardziej konkurencyjna wobec innych źródeł i będzie można myśleć o jej ekonomicznym wykorzystaniu na terenach położonych coraz bardziej na północ.
      Analitycy Solar Energy Industries Association nie pokusili się o prognozowanie, czy i w roku 2011 uda się utrzymać szybkie tempo wzrostu inwestycji. Jednak organizacja chce, by do roku 2015 na terenie USA produkowano tyle energii ze Słońca, by wystarczyło to do zasilenia 2 milionów gospodarstw domowych. To oznacza, że moc elektrowni słonecznych musi wzrosnąć czterokrotnie w porównaniu z obecną mocą.
    • By KopalniaWiedzy.pl
      Matematycy z Imperial College London oraz instytucji badawczych z Australii, Japonii i Rosji pracują nad "tablicą okresową kształtów". Mają się w niej znaleźć wszelkie możliwe kształty, które mogą istnieć w przestrzeni trój-, cztero- i pięciowymiarowej. Będą one ze sobą powiązane podobnie, jak powiązane są poszczególne pierwiastki w tablicy Mendelejewa. Po opracowaniu kształtów rozpoczną się prace nad formułami matematycznymi, które będą je opisywały. Dzięki temu będziemy lepiej rozumieli geometrię i zależności pomiędzy różnymi kształtami.
      Tablica okresowa to jedno z najważniejszych narzędzi chemii. Opisuje ona atomy, z których wszystko jest stworzone i wyjaśnia ich właściwości chemiczne. My chcemy uczynić so samo odnośnie kształtów w przestrzeni trój-, cztero- i pięciowymiarowej - pragniemy stworzyć listę podstawowych cegiełek geometrycznych i opisać właściwości każdej z nich za pomocą stosunkowo prostych równań. Sądzimy, że takich kształtów będzie wiele, więc naszej tablicy nie powiesimy sobie na ścianie, jednak będzie ona bardzo przydatnym narzędziem - mówi profesor Alessio Corti, lider projektu.
      Jeden z naukowców biorących udział w projekcie, doktor Tom Coates, stworzył już oprogramowanie, które powinno pomóc w odnalezieniu poszczególnych bloków budujących wszystkie kształty. Dzięki niemu uzyskamy figury podstawowe, które będzie można opisać odpowiednimi równaniami. Uczeni spodziewają się, że takich figur będzie kilka tysięcy.
      Większość osób potrafi sobie wyobrazić kształty trójwymiarowe, ale ci, którzy nie specjalizują się w tym, czym my się zajmujemy, mogą mieć problemy z czterema i pięcioma wymiarami. Tymczasem zrozumienie takich kształtów jest bardzo ważne dla wielu dziedzin nauki. Na przykład równanie dla kształtów pięciowymiarowych może się przydać, jeśli chcemy poinstruować robota, by spojrzał na jakiś obiekt, a następnie wysunął ramie, by go podnieść. Jeśli jesteś fizykiem, możesz potrzebować analizy kształtów do badania ukrytych wymiarów wszechświata, by zrozumieć świat cząsteczek subatomowych - mówi Coates.
    • By KopalniaWiedzy.pl
      Mimo dekad rozwoju genetyki, sekwencjonowanie DNA jest procesem kosztownym i uciążliwym. Pierwsze pełne zsekwencjonowanie całego ludzkiego genomu odbyło się w 2001 roku kosztem trzech miliardów dolarów, mimo ciągłego udoskonalania metod i redukcji ceny jeszcze w roku 2007 taka procedura kosztowała milion dolarów. Brytyjscy naukowcy z Imperial College London opatentowali technologię, która ma w ciągu dziesięciu lat obniżyć cenę sekwencjonowania pełnego genomu do kilku dolarów i skrócić czas do kilku minut.
      Obecnie odczytanie sekwencji DNA jest kosztowne i wyjątkowo długotrwałe (przeciętne tempo odczytu to około 10 par zasad na sekundę, a trzeba ich odczytać ponad trzy miliardy), ponieważ wymaga najpierw cięcia - przy pomocy odpowiednich enzymów - nici DNA na mniejsze fragmenty, namnażaniu ich, a dopiero potem odczytywaniu i składaniu na powrót w całość. Cały proces jest dodatkowo podatny na błędy.
      Naukowcy z Imperial College London pokonują kolejne bariery na drodze do skonstruowania czytnika, który będzie odczytywał pary zasad w tempie 10 milionów na sekundę, nie wymagając żadnych zabiegów przygotowawczych, cięcia czy składania na powrót nici DNA. Sztuka polega na przeciąganiu nici DNA z dużą prędkością (z zastosowaniem ładunku elektrycznego) przez otwór o średnicy 50 nanometrów w specjalnym silikonowym chipie. Po drugiej stronie otworu znajdują się dwie nanoelektrody w odstępie zaledwie 2 nanometrów. Przechodzące między nimi pary zasad (A, C, T, G) są odczytywane z wykorzystaniem „tunelowego połączenia elektrod". Odczytywaniem i składaniem informacji w całość miałby zająć się odpowiednio szybki komputer.
      Do tej pory problemem była precyzja wykonania takiego instrumentu, obecnie jednak udało się osiągnąć oczekiwane rezultaty, dzięki zastosowaniu platynowych elektrod. Stworzenie w pełni działającego zestawu ma zająć jeszcze dziesięć lat, ale technologia już została opatentowana.
      Możliwość poznania indywidualnego genomu przez każdego człowieka, szczególnie w połączeniu z coraz lepszym rozumieniem jego funkcjonowania, bez wątpienia stanowić będzie postęp w naukach biologicznych i medycznych. Nieodległy wydaje się czas, kiedy każdy natychmiast będzie mógł poznać swoje „słabe strony" - podatność na określone choroby, czas życia, itd.
      Autorzy pracy „DNA Tunneling Detector Embedded in a Nanopore" opublikowanej w NanoLetters to Aleksandar P. Ivanov, Emanuele Instuli, Catriona M. McGilvery, Geoff Baldwin, David W. McComb, Tim Albrecht i Joshua B. Edel.
      Łatwość taka może jednak rodzić zagrożenia. Po takie narzędzie bez wątpienia sięgnęłyby na przykład firmy ubezpieczeniowe, albo wywiady, które z radością dowiedziałyby się na przykład, kto z inwigilowanych dyplomatów ma wrodzoną skłonność do nałogów. Wizję takiego świata niósł amerykański film s-f Gattaca z 1997 roku. W świecie tym każde dziecko już przed urodzeniem miało opracowany profil zdrowotny, ludzi identyfikowano po ich DNA szybciej niż dzięki odciskom palców. W filmowym świecie łatwość ta doprowadziła niestety do smutnych efektów: pojawienia się „genowego rasizmu" i podzielenia ludzi na kasty.
    • By KopalniaWiedzy.pl
      Wizjonerzy mamią nas wizjami komputerów kwantowych od dobrych dwudziestu lat. I pomimo nieustannego postępu w tej dziedzinie, w zasadzie wciąż jedyne osiągnięcia to laboratoryjne przykłady, a największy zbudowany „komputer" składał się z... aż trzech qubitów, czyli kwantowych bitów. Największym problemem, jak się uważa, będzie niezawodność takich konstrukcji i odporność na błędy, trudno bowiem zapanować nad stanem każdego pojedynczego atomu czy elektronu. Jak uważają angielscy i australijscy naukowcy, sprawa niekoniecznie musi być aż tak trudna.
      Doktor Sean Barrett z Imperial College London i Thomas Stace z University of Queensland w australijskim Brisbane sugerują dość proste rozwiązanie problemu błędów - korekcję. Korekcja błędów stosowana jest dzięki odpowiednim algorytmom w dzisiejszej elektronice, a wykorzystywana jest zwykle przy korzystaniu z pamięci masowych. Same programy korygujące muszą jednak działać niezawodnie...
      Korekcja błędnych danych w komputerze kwantowym musi jednak dotyczyć samego procesu przetwarzania, powinna zatem być jakoś powiązana z samym sposobem działania kwantowego mechanizmu. Taki sposób właśnie zaprojektował zespół pod kierunkiem dra Barreta. To system kontekstowego kodowania danych, który pozwala poprawnie działać algorytmom nawet w przypadku ubytku lub przekłamania 25% qubitów. Polega on na rozmieszczeniu elementów na trójwymiarowej matrycy, podczas odczytu z której brane są pod uwagę również sąsiadujące elementy.
      Taki kwantowy komputer byłby, zdaniem angielsko-australijskiego zespołu, znacznie łatwiejszy do skonstruowania. Tym niemniej, to wciąż są na razie prace teoretyczne i do pojawienia się komercyjnych konstrukcji może upłynąć kolejnych dwadzieścia lat.
    • By KopalniaWiedzy.pl
      David Nutt, szef wydziału neuropsychofarmakologii Imperial College London opublikował w piśmie Lancet wyniki swoich najnowszych badań dotyczących narkotyków. Wynika z nich, że najniebezpieczniejszymi na świecie używkami są alkohol, heroina i kokaina. W takiej właśnie kolejności.
      Profesor Nutt badał 20 używek, w tym tytoń, marihuanę, metaamfetaminę, ekstazy, heroinę czy alkohol. Każda z badanych substancji była punktowana pod kątem możliwości wyrządzenia krzywdy użytkownikowi. Sprawdzano zagrożenie związane z odniesieniem ran, uzależnieniem się, uszkodzeniem mózgu czy stratami społecznymi takimi jak utrata pracy czy zniszczenie związku. Prowadzono też badania na poziomie społeczeństwa szacując takie problemy jak wzrost przestępczości, upadek społeczności lokalnych, problemy w rodzinach i inne koszty, jakie poszczególne używki generują w społeczeństwie.
      Badania wykazały, że najbardziej niebezpiecznymi używkami z punktu widzenia osób indywidualnych są heroina i crack. Gdy jednak wzięto pod uwagę zagrożenia dla osób indywidualnych i dla społeczeństwa, najbardziej niebezpieczny jest alkohol. Na kolejnych miejscach uplasowały się heroina, crack, metaamfetamina i kokaina w proszku. Szóste miejsce zajął tytoń, a siódme amfetamina. Marihuana uplasowała się na ósmej pozycji, a posiadające złą sławę ecstazy, na... czternastej, wraz z czuwaliczką jadalną i sterydami anabolicznymi. Najmniej niebezpieczne w zestawieniu Nutta okazały się grzyby halucynogenne.
      Profesor Nutt za swoje opinie naukowe zapłacił rządowym stanowiskiem. Zaleca on bowiem, by marihuana została przesunięta w rządowej klasyfikacji z grupy C do bardziej niebezpiecznej grupy B i uważa, że esctazy powinno trafić z grupy A do B lub C. Na swoim blogu pisze on także, że rozważając kwestie legalizacji używek politycy powinni brać pod uwagę badania naukowe. Bez tego bowiem ryzykujemy, że spowodujemy więcej szkód ścigając użytkowników, niż spowodowałby legalny narkotyk. Dowody na szkodliwość narkotyków nie powinny być poświęcane na ołtarzu politycznej i medialnej presji.
×
×
  • Create New...