Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Miłośnicy katastroficznych wizji straszą nas zagładą ludzkości w roku 2012. I choć nie mogą się zgodzić ani co do przesłanek takiego wydarzenia - raz ma to być kalendarz Majów, raz przepowiednie Nostradamusa, albo coś innego - ani co do tego, co ma się konkretnie wydarzyć - jedni mówią o wielkiej asteroidzie, inni i tajemniczej planecie albo o przebiegunowaniu Ziemi - wzajemnie się wspierają. Tymczasem profesor Nicholas Boyle, uczony z Uniwersytetu w Cambridge, wieszczy możliwość globalnej katastrofy nieco później, bo w roku 2014. Przyczyny mają być zaś znacznie bardziej przyziemne - grozić ma nam światowy kryzys ekonomiczny, do którego obecny jest jedynie przygrywką.

Profesor Boyle przez całe życie studiował nauki polityczne, ekonomię, filozofię, teologię i literaturę, żeby zmierzyć się ze stanem światowej polityki i spojrzeć szerzej zarówno na przyczyny, jak i znaczenie obecnego kryzysu finansowego. Swoje wnioski, przewidywania i rady zawarł w książce 2014 - How to survive the next world crisis (2014 - jak przetrwać następny kryzys światowy).

Taka właśnie data jego zdaniem nie jest przypadkiem. Wydarzenia polityczne i ekonomiczne jego zdaniem mają tworzyć charakterystyczne wzory ujawniające się regularnie. Światowy i powtarzalny charakter takich wydarzeń według niego widoczny jest w ciągu ostatnich stuleci. Nie uważa też, że jesteśmy skazani, bowiem charakter podejmowanych decyzji wpływa na ostateczne rozwinięcie się kryzysu lub nie. Na przykład w roku 1914 rezultatem była wyniszczająca wojna, która zmieniła całkowicie oblicze świata, w roku 1815 zaś Kongres Wiedeński zapewnił niemal sto lat względnego pokoju. Wzrost Niemiec około roku 1910 autor książki porównuje do obecnej ekspansji Chin.

W ten sam sposób połączenie narastających światowych problemów miałoby mieć swój szczyt i moment przełomowy w połowie zaczynającej się właśnie dekady. Na rok 2014 przewiduje też zrównanie potęgi ekonomicznej i militarnej Azji z potęgą Ameryki, co ma się przyczynić do narastania konfliktów, zwłaszcza że przedłużający się ekonomiczny zjazd najprawdopodobniej spowoduje radykalizację nastrojów na świecie i powrót USA do agresywnej polityki w stylu bushowskim.

Za kluczowego gracza w tej sytuacji profesor Boyle uważa jednak wciąż Stany Zjednoczone, których decyzje zaważą na kształcie, jaki świat przybierze wychodząc z kryzysu. Od posunięć USA i współpracy innych państw świata zależeć będzie, czy reszta 21 wieku będzie czasem przemocy i nędzy, czy też początkiem współpracy nowego rodzaju pomiędzy światowymi graczami. Remedium na zagrożenie to jego zdaniem wciąż Pax Americana, ale w zmienionej postaci, który nastanie dopiero, kiedy międzynarodowa społeczność zrozumie, że państwa narodowe nie są już dość silne, żeby mierzyć się z takimi zagrożeniami jak zapaść ekonomii, zmiany klimatyczne, radykalizacja nastrojów w wielu miejscach świata. Kiedy świat wyciągnie z zagrożeń wnioski i podejmie odpowiednie działania. Konieczne jest, zdaniem autora książki, wzmocnienie międzynarodowej współpracy i globalne, ponadnarodowe zarządzanie.

Niedostatek takiego światowego, zgodnego nadzoru i regulacji stał się przyczyną obecnego kryzysu bankowego i zapaści światowej gospodarki. Jest jednak nadzieja, jak mówi Nicholas Boyle , dziś bowiem mamy znacznie większe i silniejsze ponadnarodowe organizacje i lepszą międzynarodową współpracę, niż wiek temu. Ale konieczna jest zmiana filozofii, jaka stoi za światową polityką i ekonomią. Państwa narodowe autor nazywa „nieudanym dwudziestowiecznym eksperymentem". W sytuacji problemów ogólnoświatowych konieczne jest „zarządzanie imperialne", całościowe. W każdym razie do roku 2014 nasza przyszłość stanie się zdeterminowana przez nasze - całego świata - decyzje.

Książka Nicholasa Boyle'a została wydana 17 czerwca i jest do kupienia również w sklepach internetowych.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czyli już wiemy jak zorganizują rząd światowy - poprzez wywołanie bezprecedensowego kryzysu. Tylko będą musieli coś dobrego wymyśleć na te państwa, które nie mają wysokiego długu publicznego.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z opisu wynika, że Boyle zapoznał się z teorią Eliota. Na szczęście zarabiają na niej tylko wydawcy książek i interpretatorzy gdyż wartość prognostyczna teorii jest żadna.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Stworzono pierwszą dokładną mapę dna morskiego, na którym leżą szczątki Titanica. Mapa opisuje obszar o wymiarach ok. 5x8 kilometrów. Dzięki niej naukowcy chcą poznać szczegółowy przebieg wydarzeń z zatonięcia statku.
      Stworzenie mapy było możliwe dzięki użyciu sonaru i wykonaniu przez podwodne roboty ponad 100 000 zdjęć najróżniejszych przedmiotów pochodzących ze statku. Mapowania dokonał Woods Hole Oceanographic Institution oraz Waitt Institute of La Jolla. Członkowie ekspedycji używali dwóch autonomicznych robotów. Były one wyposażone w sonary. Poruszając się z prędkością około 5 km/h wykonały 130 000 zdjęć o wysokiej rozdzielczości.
      Fotografie złożono razem tworząc najbardziej szczegółową z dostępnych map miejsca katastrofy. Szczegółowe przyjrzenie się rozkładowi szczątków pozwoli na stwierdzenie, w jaki sposób rozpadł się Titanic czy znalezienie jego słabych punktów oraz określenie, czy do katastrofy przyczynił się jakiś błąd w samym projekcie statku.
    • przez KopalniaWiedzy.pl
      Steven Piantadosi, Harry Tily i Edward Gisbon z Wydziału Mózgu i Nauk Poznawczych MIT-u badają, w jaki sposób ludzie myślą i komunikują się ze sobą. Postanowili przetestować liczące sobie 75 lat językowe prawo Zipfa i zauważyli, że wymaga ona udoskonalenia. W roku 1935 lingwista George Kingsley Zipf stwierdził, że „wielkość słów ma tendencję, jako całość, do bycia odwrotnością, niekoniecznie proporcjonalną, częstości ich pojawiania się". Innymi słowy, częściej pojawiające się słowa są zwykle krótsze od tych rzadziej pojawiających się.
      Jedną z najszerzej znanych i prawdopodobnie uniwersalnych właściwości ludzkiego jest ta, że często używane słowa są zwykle krótkie - napisali badacze z MIT-u. Jak wyjaśniał Zipf, ma to związek z ekonomią wypowiedzi. Angielski wyraz „of" jest tak krótki, gdyż używa się go wyjątkowo często. To czwarte pod względem popularności słowo. Najpopularniejszym słowem pisanym jest „the". Na liście 100 najczęściej używanych angielskich słów znajdziemy „be", „on", „have", „who" czy „some". To już było wiadomo za czasów Zipfa. Teraz naukowcy udoskonalili jego prawo stwierdzając, że wśród 10 badanych języków to, co człowiek mówi jest ważniejszym czynnikiem wpływającym na długość słowa od tego, jak często dane słowo wypowiada.
      W czasie swoich badań uczeni chcieli porównać teorię Zipfa z własnym pomysłem, zgodnie z którym na długość słowa wpływa średnia ilość informacji, którą wnosi ona do wypowiedzi. Aby to sprawdzić użyli internetu i sprawdzili wszelkie możliwe kombinacje dwóch, trzech i czterech wyrazów występujących obok siebie. Dzięki temu mogli dowiedzieć się, na ile przewidywalne jest pojawienie się danego wyrazu.
      Na przykład w kontekście „Monday night...." wystąpienie słowa „football" jest bardzo prawdopodobne, a co za tym idzie, niesie ono ze sobą niewiele informacji. Ale na przykład w kontekście „I ate...", słowo, którego brakuje, jest całkowicie nieprzewidywalne, dlatego też niesie ze sobą dużo informacji - mówi Piantadosi. Naukowcy przypuszczali, że średnia ilość informacji zawarta w sekwencji dwu-, trzy- lub czterowyrazowej powinna częściowo wpływać na długość wyrazów, albo pod względem liczby liter albo sylab. Sekwencja wyrazów jest zakodowana w języku tak, by komunikacja była jak najbardziej efektywna. A to oznacza, że sekwencja ta, to efektywny kod związany ze znaczeniem, który można wykazać w badaniach statystycznych. Takie właśnie przypuszczenie wysunęliśmy - dodaje Piantadosi.
      Jeśli przyjrzymy się słowu miłość, to w różnych językach oznacza ono to samo i ma podobną długość (love, amour, liebe, amor, karlek). Jednak, jak uważają uczeni z MIT-u, na to, jak często konkretne słowo jest używane, decyduje nie jego długość, a słowa występujące po i przed nim.
      Uczeni zbadali swoją teorię na przykładzie czeskiego, holenderskiego, francuskiego, angielskiego, niemieckiego, hiszpańskiego, włoskiego, portugalskiego, rumuńskiego i szwedzkiego. Okazało się, że odstępstwa od ich teorii można zauważyć tylko w niemieckim. Byłem zdumiony, że efekt ten występuje w tak wielu językach. Sądziłem, że różnice w morfologii czy strukturze wyrazów, zaburzy ten efekt w różnych językach, ale tak się nie stało - dodaje Piantadosi.
      Badania z MIT-u mogą też dostarczać dodatkowych wyjaśnień, dlaczego najczęściej używane słowa są krótkie. Są bowiem przewidywalne, niosą zatem niewiele informacji. Ponadto liczne z nich to wyrazy funkcjonalne - takie jak „with", „from" czy „over" - których zadaniem jest łączenie innych słów. Krótkie wyrazy zwykle łączą się w często występujące związki frazeologiczne, a zatem takie, które wnoszą niewiele danych.
      Naukowcy z MIT-u odkryli też, że ludzie komunikują się w niemal optymalny sposób. Zasób słownictwa nie jest dowolny, w tym sensie, że nie używamy go w całkowicie swobodny sposób. Jest on dobrze ustrkturyzowany pod kątem komunikacji, niosąc ze sobą pewne ciągi wyrazów, których ludzie zwykle używają - dodaje Piantadosi.
    • przez KopalniaWiedzy.pl
      Nie od dzisiaj wiadomo, że gdyby Kalifornia była niepodległym państwem, to zaliczałaby się do ścisłej czołówki gospodarek świata. Specjaliści z pisma The Economist pokazali interaktywną mapkę, w której porównali PKB poszczególnych stanów USA do najbliższego odpowiadającego im państwa.
      Wspomniana na wstępie Kalifornia, mimo iż ostatnio przeżywa kolosalne kłopoty, uplasowałaby się na 8. miejscu największych światowych potęg gospodarczych. PKB Kalifornii (1,9 bilionaUSD) jest podobne do PKB Włoch (2,1 biliona). Inny wielki stan USA Teksas (1,1 biliona) niewiele ustępuje pod względem produktu brutto PKB Rosji (1,2 biliona). Skoro jesteśmy przy dużych stanach, to Alaska (45,7 miliarda) dorównuje Omanowi (46,1 miliarda), a Floryda (737 miliardów) może mierzyć się z Holandią (796 miliardów). Dla stanu Nowy Jork (1,1 biliona USD) najbliższym odpowiednikiem jest PKB Australii (994 miliardy), a niewielki Massachusetts (365 miliardów) dorównuje Arabii Saudyjskiej (376 mld). Na mapie znalazła się też i Polska. Nasz kraj z PKB rzędu 431 miliardów dolarów może się równać ze stanem Virginia (408 miliardów). Trzeba jednak pamiętać, że Virginia jest trzykrotnie mniejsza i ma sześciokrotnie mniej mieszkańców niż Polska.
      Dane o PKB poszczególnych stanów i krajów pochodzą z roku 2009 lub 2010.
    • przez KopalniaWiedzy.pl
      Trudno przecenić siłę, z jaką hollywoodzkie kino oddziałuje na powszechną wyobraźnię. Nie sposób też nie zauważyć, że kino - do czego ma zresztą prawo - chętnie traktuje realizm dość swobodnie. Czy jednak taka dowolność, prezentowana w wysokobudżetowych filmach science-fiction, nie przekracza ostatecznych granic? Na pewno może być szkodliwa, uznali naukowcy NASA, wybierając „2012" najbardziej antynaukowym i bzdurnym filmem w historii kinematografii.
      Podobne dyskusje z wytykaniem błędów przetaczały się już wielokrotnie, jak choćby w przypadku „Dnia niepodległości", który był wręcz swego rodzaju chłopcem do bicia, a znajdowanie nielogiczności w tej produkcji stało się hobby wielu osób. Nigdy wcześniej jednak naukowcy związani z NASA nie poczuli się w obowiązku publicznego prostowania filmowych nonsensów i absurdów, dopiero kosztujący osiemset milionów dolarów katastroficzny „2012" skłonił ich do tego.
      Oparty na popularnym w paranauce micie o tym, że koniec znanego kalendarza Majów oznacza koniec świata, który wypadnie w 2012 roku, zdobył wielką popularność i posiał niepewność wśród wielu ludzi. Pokazany „koniec świata", podparty pseudonaukowymi argumentami i pseudonaukowym językiem może wydawać się wiarygodny, a skutkiem tego są niezliczone listy i e-maile pisane między innymi do NASA przez zaniepokojonych widzów.
      Donald Yeomans, zajmujący się w NASA badaniem bliskich asteroidów nazwał holywoodzki przebój „wyjątkowo nadzwyczajnym przykładem »złej nauki«". Niemożliwe jest - przykładowo - aby słoneczne neutrina w jakikolwiek sposób reagowały z jądrem Ziemi i wywoływały jakiekolwiek efekty, ponieważ nie reagują one z materią praktycznie w ogóle. Pokazane na filmie olbrzymie tsunami, przykrywające Mount Everest są nawet bez tego niemożliwe. Nie sposób nawet wyliczyć wszystkich filmowych absurdów, do których dochodzą jeszcze inne popularne w paranauce „teorie końca świata", jak choćby tajemnicza planeta Nibiru i inne. Dlatego NASA postanowiło, po raz pierwszy w historii, zamieścić w internecie materiały demaskujące antynaukowe nonsensy filmu 2012 - „2012: początek końca, albo dlaczego nie będzie końca świata?".
      Na liście kandydatów do najgłupszego pod względem naukowym filmu, z „2012" rywalizowały takie produkcje jak „The Day After Tomorrow" (o globalnym ociepleniu), „Volcano" (o wulkanie pojawiającym się w Los Angeles), czy mieniące się filmami dokumentalnymi „What the Bleep Do We Know", „The Sixth Day", „Chain Reaction", „The Core". Na liście pojawił się nawet „Armageddon", mimo że powstawał przy wsparciu NASA.
      Dla odmiany na liście filmów wiarygodnych naukowo znalazły się „Gattaca", „Metropolis", „Jurassic Park", „Contact" i „Blade Runner".
       
      http://www.youtube.com/watch?v=ce0N3TEcFw0
    • przez KopalniaWiedzy.pl
      Zatoka Meksykańska, której przyszłość po wycieku ropy była bardzo niepewna, zyskała niespodziewanego sojusznika w walce z zagrożeniem. Jeszcze niedawno naukowcy obawiali się, że pozostająca na dużych głębokościach ropa będzie przez lata zabijała wiele gatunków. Tymczasem najnowsze badania sugerują, że być może sama natura poradzi sobie ze skutkami ludzkiej głupoty.
      Naukowcy z Lawrence Berkeley National Laboratory odkryli, że ropa jest pożerana przez nieznane dotychczas gatunki mikroorganizmów i proces ten zachodzi szybciej, niż się spodziewano. Oraz - co niezmiernie ważne - organizmy te nie zużywają zbyt dużych ilości tlenu.
      Nasze badania pokazują, że wyciek oleju znacząco zmienił skład mikroorganizmów, poprzez stymulowanie rozwoju zimnolubnych gamma-proteobakterii,które są blisko spokrewnione z organizmami, o których wiadomo, że żywią się ropą - mówi Terry Hazen, główny autor badań.
      Życiu w Zatoce zagraża nie tylko ropa, ale również COREXIT 9500, środek chemiczny używany do rozpuszczania plam ropy w czasie wycieków. Co prawda jego wpływ na wody powierzchniowe był dokładnie badany, nigdy jednak nie sprawdzano, w jaki sposób zachowuje się on na dużych głębokościach i jak wpływa na żyjące tam gatunki.
      Uczeni z LBNL rozpoczęli swoje badania już pod koniec maja.
      Wysłaliśmy w tamte rejony dwa statki, których zadaniem było zbadania fizycznych, chemicznych i mikrobiologicznych właściwości wycieku. Wydostająca się ropa stała się źródłem olbrzymiej ilości węgla w tamtejszym ekosystemie. Podejrzewaliśmy, że węglowodory mogą potencjalnie przyczynić się do rozwoju życia mikrobiologicznego, ale dotychczas nie mieliśmy na to dowodów - mówi Hazen.
      Uczony, który badał w swojej karierze skutki wielu wycieków ropy, jest szefem Wydziału Ekologii i Centrum Biotechnologii Środowiskowej w LBNL. Wraz ze swoim zespołem pobrał pomiędzy 25 maja a 2 czerwca ponad 200 próbek z 17 miejsc. Analizowano je następnie za pomocą wyjątkowo wydajnego narzędzia, Berkeley Lab PhyloChip. Ma ono wielkość karty kredytowej i jest w stanie dokładnie wykryć obecność do 50 000 gatunków bakterii i archeonów w jednej próbce, bez konieczności ich hodowania. Badania wykazały, że w pobranych próbkach dominującym mikroorganizmem jest przedstawiciel rodziny Oceanospirillales, najbliżej spokrewniony z Oleispirea antarctica i Oceaniserpentilla haliotis.
      Badania pokazały, że saturacja tlenem wód oddalonych od wycieku wynosi 67%, a wód z wycieku - 59%. To dowodzi, że mikroorganizmy nie zużywają zbyt wiele tlenu. Gdyby tak się stało, Zatoce groziłoby powstanie martwych stref pozbawionych tlenu.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...