Otaczający nas świat to bardzo złożony system. Pojedynczy człowiek nie jest w stanie dostrzec wszystkich zależności pomiędzy składnikami tworzącymi środowisko, w którym żyjemy. W celu jego uproszczenia mamy w zwyczaju stosować różne działania – dostrzegamy liniowe zależności, intuicyjnie przyjmujemy fałszywe prawo zachowania złożoności, czyli przeciwieństwo efektu motyla – brak wrażliwości na warunki początkowe. Zauważamy korelacje zmiennych, które są zupełnie przypadkowe. Nawet ekonomiści w części swoich publikacji (np. w podręcznikach) tłumaczą jedynie najprostsze modele, zamiast tych bardziej złożonych, nie ukrywając, że nie wystarczają one do zrozumienia zjawisk mających miejsce w rzeczywistym świecie.

W dzisiejszych czasach nie sposób nie być częścią światowego systemu finansowego – znakomita większość ludzi posiada choćby konto bankowe, a jego części składowe – banki, giełdy papierów wartościowych i towarowe, różne instrumenty finansowe i rynki pozwalające na ich nabywanie – coraz prędzej się rozrastają. Kryzys finansowy z roku 2008 pokazał, że dotychczas powszechnie stosowane narzędzia ekonomistów nie pozwalają na pełne zrozumienie funkcjonowania tego systemu. To właśnie dzięki kryzysowi wcześniej zapomniana hipoteza niestabilności systemu finansowego H. Minsky’ego stała się jedną z najbardziej komentowanych i wzmiankowanych teorii, a pojęcie moment Minsky’ego, czyli kulminacyjny punkt bańki spekulacyjnej, po którym następuje załamanie na trwałe weszło do dyskursu ekonomicznego.

Ekonomia złożoności postrzega otoczenie w odmienny sposób, niż ekonomia neoklasyczna, tradycyjna. Pierwszą różnicą jest brak rozróżnienia między mikro- a makroekonomią, w przeciwieństwie do konwencjonalnych doktryn, w których są one odrębnymi obszarami badań. Zgodnie z ekonomią złożoności cała makroekonomia jest rezultatem zachowań oraz interakcji między jednostkami występującymi na poziomie mikroekonomicznym, które wskutek emergentnych właściwości wywołują bardziej złożone zjawiska. Poszczególne osobniki różnią się między sobą, nie są kolektywem, nie zawsze wykazują racjonalność czy egoizm. Aktorzy społeczni mogą popełniać błędy, a także uczyć i adaptować do zmiennych warunków otoczenia.

Zasadniczą różnicą jest również forma tworzenia modeli ekonomicznych. Znaczący wpływ na gospodarkę mają jej stany w poprzednich okresach – bez znajomości historii nie jesteśmy przewidzieć dominujących trendów. Odrzucenie założenia addytywności1 (zasady superpozycji) i homogeniczności2 prowadzi do wprowadzenia nieliniowych systemów dynamicznych, mogących posiadać więcej niż jeden punkt równowagi – może to być równowaga niestabilna. Nieliniowość to między innymi występowanie chaosu deterministycznego – dwie, w stanie początkowym minimalnie różniące się wartości mogą wykazywać zupełnie odmienne tendencje do zmian w czasie. Ekonomia złożoności postuluje istnienie systemów dynamicznych, w których dla pewnych wartości parametrów układu dochodzi do zachowań chaotycznych, których nie da się przewidzieć. Maksymalny rząd długości prognozy kształtowania się różnych zmiennych (np. PKB czy inflacji i bezrobocia), która ma sens – jest skuteczna, wskazuje czas Lapunowa3 – po jego upływie pojawia się efekt motyla – metaforyczne określenie wrażliwości na zmiany stanu początkowego i uniemożliwia prognozę.

Zarys historii

Pod koniec XIX wieku Henri Poincaré, prowadząc badania nad problemem trzech ciał, czyli nad wyznaczaniem torów ruchu ciał oddziałujących grawitacyjnie ze sobą, odkrył, że nie da się wyznaczyć jego ogólnego rozwiązania. Wnioski płynące z jego pracy wskazywały, że zachowanie trzech obiektów jest chaotyczne. Wskutek tego, ze względu na skończoną dokładność urządzeń pomiarowych, nie jest możliwe określenie stanu końcowego układu. Była to niewątpliwie jedna z pierwszych obserwacji zachowań chaotycznych w historii. Niestety, przez następne lata badania nad nimi nie były ponawiane. Przełom nastąpił dopiero w latach 50. XX wieku dzięki Edwardowi Lorenzowi – ojcu teorii chaosu, który upowszechnił sformułowanie efekt motyla.

Pierwszą instytucją badawczą stworzoną w celu badań nad złożonymi systemami adaptacyjnymi był Santa Fe Institute. George Cowan, chemik fizyczny, biorący udział m.in. w projekcie Manhattan, już od lat 50. myślał o stworzeniu takiego centrum badawczego. Niestety, nie wykazano wówczas żadnego zainteresowania w pomocy przy jego projekcie. To nie był jeszcze właściwy czas – przed rokiem 1960 wydano zaledwie 19 prac naukowych na temat złożoności, w latach 1961-1980 – 98, a w okresie 1981-2004 – aż 212, z wyraźną tendencją rosnącą w następnych latach. W międzyczasie rozwinęły się teoria prawdopodobieństwa i mechanika statystyczna, które dały narzędzia do pomiaru niepewności w systemach dynamicznych. Dopiero po 30 latach rozpoczął się szybszy rozwój. Na początku lat 80. Cowan został członkiem White House Service Council. Musząc stawiać czoło trudnym zagadnieniom i problemom, zauważył, że wymagały one holistycznego, interdyscyplinarnego podejścia, wchodząc w zakres nauk ścisłych, ekonomicznych, politycznych i innych. Ubolewał nad redukcjonistycznym podejściem do nauki i jej postępującej fragmentaryzacji na poszczególne subdyscypliny. Widząc istotny wzrost ilości mocy obliczeniowej komputerów i rozwój eksperymentów numerycznych w postaci symulacji komputerowych, uważał, że są one zdolne dać badaczom narzędzia do badań nad wszelkimi złożonymi zagadnieniami w sposób bardziej ogólny i wszechstronny niż dotychczas. Skrystalizowała się idea centrum badawczego jako miejsca do analiz interdyscyplinarnych, wykraczających poza ramy wyznaczane przez uniwersyteckie jednostki badawcze. Jako członek White House Service Council miał większe możliwości otrzymania wsparcia ze strony politycznej. Dwa lata później George Cowan wraz z innymi czołowymi naukowcami założył Santa Fe Institute.

Obecnie Santa Fe Institute zajmuje się badaniami z bardzo szerokiego zakresu, ponieważ układy złożone są odkrywane w wielu dziedzinach. Są one obecne w m.in. fizyce meteorologii, biologii i, oczywiście, ekonomii.

Wrażliwość na warunki początkowe

Na aktualne miejsce, w którym znajduje się system złożony wpływają stany z poprzednich okresów. Przy danych wartościach wejściowych z poprzedniego okresu wystarczy przetworzyć je zgodnie z zależnościami składającymi się na model, otrzymując na wyjściu dane opisujące aktualny stan – jest to iteracja4. Najprostszym, klasycznym przykładem, który wykazuje pełnię zachowań charakterystycznych dla chaotycznych układów złożonych jest odwzorowanie logistyczne, mogące stanowić, na przykład, uproszczony model populacji. Jest ono postaci:
$$\begin{equation} \tag{$1$}
x_{n+1}=rx_n(1-x_n), x_n\in \left[0; 1\right], r \in \left(0; 4\right]
\end{equation}$$ gdzie $r$ to parametr wyznaczający dynamikę zmian w populacji, a $x$ to stosunek populacji do liczby krytycznej, której osiągnięcie oznacza wymarcie wszystkich osobników.

Wyobraźmy sobie prosty świat, składający się z tylko jednej osady ludzkiej, w której rządy sprawuje sołtys i tylko jednego dobra – zajęcy skaczących po okolicznej łące stanowiących pożywienie dla mieszkańców. Możliwość polowania na te zwierzęta jest ściśle ograniczona – rokrocznie sołtys wyznacza liczbę zajęcy do upolowania, która jest następnie rozdzielana pomiędzy mieszkańców wsi. Wyznaczenie takiej liczby na dany rok jest poprzedzone prognozowaniem zmian w populacji zajęcy, aby nie zaburzyć równowagi ekosystemu. Urzędnicy, którym powierzono to zadanie ustalili, że aktualnie na łące żyje 600 zajęcy, ilość krytyczna wynosi 1000 ($x_0=0,6$), a $r=4$. Długość prognozy wyniosła 10 lat.

Rok Estymacja

[szt.]

Rzeczywistość

[szt.]

Błąd

bezwzględny

Błąd

względny

Stosunek
0 600 605 -5 -0,83% 101%
1 960 956 4 0,43% 100%
2 154 169 -15 -8,91% 110%
3 520 561 -41 -7,26% 108%
4 998 985 13 1,34% 99%
5 6 58 -52 -88,98% 908%
6 25 219 -194 -88,38% 861%
7 99 685 -585 -85,50% 690%
8 358 864 -506 -58,59% 241%
9 919 471 448 95,22% 51%
10 298 997 -699 -70,11% 335%

Początkowo błąd w oszacowaniu liczby zajęcy był niewielki – wyniósł mniej niż 1%. Mogłoby się wydawać, że przy tak małym błędzie pomiaru populacji początkowej 10-letnia prognoza powinna dość dokładnie odwzorować przebieg zmian ilości zajęcy. Niestety, przy parametrze $r=4$, system zachowuje się chaotycznie – od pewnego momentu nie jest możliwe przewidzenie w jaki sposób będzie się zmieniał. Nawet przy minimalnej różnicy wartości początkowych po pewnym czasie ukazują się ogromne błędy, sprawiając, że prognoza jest całkowicie niezgodna z rzeczywistymi wynikami – nie daje żadnych korzyści.

Oczywistym jest, że przy prognozach długoterminowych wyznacza się nie pojedynczą wartość, lecz przedział, w którym analizowana zmienna powinna się zawierać, w zależności od kolejnych zdarzeń w przyszłości. Niestety, jak zostało to uwidocznione w powyższym przykładzie, nawet przyjęcie najszerszego marginesu błędu nie jest skuteczne. Spójrzmy na rok 10. – aby prognoza zawierała w sobie rzeczywisty wynik należałoby ją określić jako 298 szt. 699 szt. albo 298 szt. 235% – oznaczałoby to, że de facto może się zdarzyć wszystko.

W naukach ekonomicznych brak jest możliwości przeprowadzenia ściśle kontrolowanych eksperymentów, tak jak ma to miejsce na przykład w fizyce. Ekonomistom pozostaje jedynie obserwacja zmian zachodzących w gospodarce oraz analiza i interpretacja zgromadzonych danych historycznych. Nie da się powtórzyć wydarzenia gospodarczego z przeszłości w dokładnie ten sam sposób. Wskutek braku możliwości poznania pełnych zbiorów zachowań gospodarek, czasami okazuje się, że model po pewnym czasie przestaje działać.

Rozważając ponownie wyżej scharakteryzowany świat, można również ukazać jak wielkie skutki wywołuje minimalna zmiana na podstawie równania różniczkowego opisującego dynamikę zmian populacji zajęcy:
$$\begin{equation} \tag{$2$} \frac{dP}{dt}=rP(1-\frac{P}{k})-h, P>0, h>0 \end{equation}$$ gdzie $P$ to liczba zajęcy, $k$ – parametr wyznaczający optimum systemu, w którym osiągany jest stabilny punkt równowagi, $r$ – tj. w $(1)$, a $h$ – parametr wskazujący liczbę zajęcy, która jest odławiana w jednym okresie. Załóżmy, że $k=500$. Przy $h=100$ (oznaczającym, że w danym roku zostaje upolowanych 100 zajęcy), otrzymamy dwa punkty równowagi – niestabilny dla $P$ równego około 26,4 oraz stabilny – przy 473,6. Oznacza to, że każda trajektoria z wartością początkową większą niż 26,4 (i mniejszą niż 1000) będzie dążyła do stabilnej równowagi. Wraz ze wzrostem odłowu ekwilibria zbliżają się do siebie, aż do $h=500$, gdzie istnieje tylko jedna niestabilna równowaga – każde, nawet minimalne odchylenie od tego stanu spowoduje spadek populacji do zera. Przy $h>500$ dla dowolnej wartości obserwujemy tylko i wyłącznie zmniejszanie się populacji, aż do jej wymarcia.

Złożoność otaczającego nas świata jest zbyt duża, najprawdopodobniej nigdy nie będziemy w stanie stworzyć modelu będącego dokładnym odwzorowaniem rzeczywistości. Pozornie mało znaczące wydarzenia, wspólnie mogą spowodować zmianę kierunku ścieżki rozwoju danego produktu, czy dziedziny – o tym mówi teoria path dependence5. Zachowania chaotyczne sprawiają, że pojawia się bezradność przy tworzeniu prognoz. Drobna zmiana może zapoczątkować zmianę trajektorii na prowadzącą do innego punktu równowagi.

Radosław Jawor

Bibliografia

  • E. J. Sánchez Alcázar, Economía y complejidad; algunas implicaciones para el diseño de las políticas de desarrollo internacional y de cooperación, IICIED, Universidad de Huelva, 2014.
  • D. Begg, G. Vernasca, S. Fischer, R. Dornbusch, Mikroekonomia, PWE, Warszawa, 2014.
  • M. Bełej, Ekonomia złożoności w badaniach rynków nieruchomości, Studia Ekonomiczne, Instytut Nauk Ekonomicznych PAN, 2016, nr 3.
  • M. Bełej, Ewolucja paradygmatu badań rynku nieruchomości w perspektywie ekonomii złożoności, Studia i prace WNEiZ US, 2016, nr 45/1.
  • J. Dzionek-Kozłowska, Transformacja ustrojowa z perspektywy path dependence, Prace naukowe Uniwersytetu Ekonomicznego we Wrocławiu, 2009, nr 74.
  • A. Jakimowicz, Path Dependence in Neoclassical Economic Growth Theory, Acta Physica Polonica A, 2015, nr 127.
  • A. Jakimowicz, Podstawy interwencjonizmu państwowego, PWN, Warszawa, 2012.
  • E. Perona, Ciencias de la Complejidad: ¿La economía del siglo 21?, Universidad Nacional de Córdoba, Córdoba, 2005.
  • E. Peters, Teoria chaosu a rynki kapitałowe, WIG-Press, Warszawa, 1997.
  • obserwatorfinansowy.pl/tematyka/makroekonomia/szesc-wielkich-idei-hipoteza-niestabilnosci-finansowej-minskyego, dostęp: 27.11.2017.
  1. Jeśli $f(a)=x$ i $f(b)=y$, to $f(a+b)=x+y$.
  2. $f(\beta a)=\beta f(a)=\beta x; \beta =\text{const}$
  3. Czas Lapunowa to odwrotność największego wykładnika Lapunowa w układzie.
  4. Załóżmy, że $x_0=3$, a funkcja opisująca nasz układ to $f(x)=2x$. Wtedy, odpowiednio po pierwszej, drugiej i $n$-tej iteracji otrzymujemy: $x_1=6$, $x_2=18$, $x_n=3x_{n-1}$.
  5. Została użyta angielska nazwa pojęcia za: J. Dzionek-Kozłowska, Transformacja ustrojowa z perspektywy path dependence, Prace naukowe Uniwersytetu Ekonomicznego we Wrocławiu, 2009, nr 74, s. 214

Leave a Reply