The Smets-Wouters model (2002, 2004, 2007) is a nonlinear system of equations in the form of a Dynamic Stochastic General Equilibrium (DSGE) model that seeks to characterize an economy derived from economic first principles. The basic model works with 7 time series: output, prices, wages, hours worked, interest rates, consumption, and...
Rethinking Economics at the London School of Economics I was invited by the Rethinking Economics student association at the London School of Economics to give a talk about Greece, Austerity, Post Keynesian Economics and anticipating the crisis. There...
1万個の指標を一つずつ見ていき、S&P500を記述する線形モデルy_mod = a + b*x1を最小の誤差で与えたものを選択しましょう。そして、残基 y - y_mod = c + d*x2 を最小の誤差で記述するように、残りの1万-1個の指標を試して、2番目の入力を再度選択します。といった具合に。この方法は、ステップワイズ回帰またはマッチング追求と呼ばれる。
以下は、S&P500との相関係数が最大となる最初の10指標である。
シリーズID
ラグ
コル
Mut Info
'PPICRM(ピーピックラム
2
0.315
0.102
'CWUR0000SEHE'
2
0.283
0.122
'ces1021000001'
1
0.263
0.095
'b115rc1q027sbea'。
2
0.262
0.102
'ces1000000034'です。
1
0.261
0.105
'a371rd3q086sbea' です。
2
0.260
0.085
'b115rc1q027sbea'。
1
0.256
0.102
'cuur0000saf111'
1
0.252
0.117
'cuur0000sehe'です。
2
0.251
0.098
'USMINE'(ウスミン
1
0.250
0.102
S&P500との相互情報量が最大となる上位10指標を紹介します。
シリーズID
ラグ
コル
Mut Info
CPILEGSL
3
0.061
0.136
'b701rc1q027sbea' です。
3
0.038
0.136
'CUSR0000SAS'
3
0.043
0.134
'GDPPOT'
3
0.003
0.134
'NGDPPOT'
5
0.102
0.134
'OTHSEC'
4
0.168
0.133
3 'lnu01300060'です。
3
0.046
0.132
'lrac25ttusm156n'。
3
0.046
0.132
'lrac25ttusq156n'。
3
0.046
0.131
'CUSR0000SAS'
1
0.130
0.131
Lag は、シミュレーションされた S&P 500 シリーズに対する入力シリーズのラグである。これらの表からわかるように、最も重要なインプットを選択する方法が異なれば、インプットセットも異なるものとなる。私の最終目標はモデルの誤差を最小にすることなので、入力選択の2番目の方法、つまりすべての入力を列挙し、最も誤差が小さくなる入力を選択する方法を選びました。
は、「あなた方の大学」が教えてくれた限られたクラスのモデルにしか当てはまらない。
大学で勉強したわけではありません。独学でやっています。自分の頭脳で考える。何事も疑ってかかり、ダブルチェックをする。定常性の必要性そのものは、非定常データでモデルを得ようと何度も失敗した後に思いついた。詳しく説明することは可能ですが、皆さん自分の意見に固執されるので、時間の都合で申し訳ありません。
私がこのテーマに興味を持ったのは、Steve Keen教授が自分の経済モデルは2008年の暴落を予測したが、FRBが使っているDSGEモデルは何も予測できなかったと自慢しているマーケットのニュースを見たのがきっかけです。そこで、DSGEモデルやKeenのモデルを勉強しました。私のような道を歩みたい人は、DSGEモデルに関するこのMatlabの記事から始めることをお勧めします。FRED fedreserveデータベースから経済データをスワップするコードなど、必要なコードはすべて揃っています。
http://www.mathworks.com/help/econ/examples/modeling-the-united-states-economy.html
Fedモデルは、以下の予測因子を用いている。
そして、YouTubeでSteve Keenの講義を見る。
https://www.youtube.com/watch?v=aJIE5QTSSYA
https://www.youtube.com/watch?v=DDk4c4WIiCA
https://www.youtube.com/watch?v=wb7Tmk2OABo
そして、彼の記事を読んでください。
/go?link=http://www.ideaeconomics.org/minsky/
プロフ・スティーブキーン
そして、読みやすい言葉で過疎地のために
ドイツ人向け :)
https://translate.google.com.ua/translate?sl=en&tl=ru&js=y&prev=_t&hl=ru&ie=UTF-8&u=http%3A%2F%2Fen.wikipedia.org%2Fwiki%2FSteve_Keen&edit-text=
そこで、利用可能な経済指標に基づいてS&P500指数を予測することが課題となります。
ステップ1: 指標を探す指標はこちらで公開されています。http://research.stlouisfed.org/fred2/ 24万件あります。最も重要なのは、GDP成長率です。この指標は四半期ごとに算出されます。そのため、3ヶ月というステップを踏みました。短い時間枠の指標はすべて3ヶ月に再計算し、それ以外(年間)は破棄しています。また、アメリカ以外の国の指標や、歴史が深くない(15年以上)指標は破棄しています。そこで、苦労してたくさんの指標をふるいにかけて、1万個くらいの指標を手に入れます。四半期ごとの経済指標を1万個用意し、1~2四半期先のS&P500指数を予測するという、より具体的な課題を策定してみよう。私はすべてMatlabで行っていますが、Rで行うことも可能です。
ステップ2: 微分と正規化により、すべてのデータを定常型に変換する。いろいろな方法がありますね。要は、変換されたデータが元のデータから復元できるかどうかということです。定常性がなければ、どんなモデルも機能しない。変身前と変身後のS&P500シリーズを以下に示す。
ステップ3: 機種を選ぶニューラルネットワークができるかもしれませんね。多変量線形回帰でも よい。多変量多項式回帰の可能性があります。線形モデルと非線形モデルを試した結果、y=S&P500、x=1万種類の指標の一つであるy(x)のグラフがほぼ丸い雲であることから、データが非常にノイズが多く、非線形モデルのあてはめに意味がないと結論付けました。そこで、より具体的な課題として、四半期を周期とする1万個の経済指標を持つS&P500指数の1四半期先、2四半期先を多変量線形回帰で予測することを定式化した。
ステップ4: 1万個の中から最も重要な経済指標を選択する(問題の次元を下げる)。これが最も重要で難しいステップです。例えば、S&P500の歴史を30年(120四半期)とする。S&P500を様々な経済指標の線形結合として表現するためには,この30年間のS&P500を正確に表現するための120の指標があれば十分である。また、120の指標とS&P500の120の値からこのような正確なモデルを作るために、指標はどんなものでもよい。したがって、入力数を記述された関数値の数より少なくすることにする。例えば、最も重要な10〜20の指標/入力を求めています。このように、多数の候補ベース(辞書)から選ばれた少数の入力でデータを記述する作業をスパース符号化と呼ぶ。
予測入力の選択には多くの方法がある。全部試しましたよ。ここでは主な2つを紹介します。
以下は、S&P500との相関係数が最大となる最初の10指標である。
S&P500との相互情報量が最大となる上位10指標を紹介します。
Lag は、シミュレーションされた S&P 500 シリーズに対する入力シリーズのラグである。これらの表からわかるように、最も重要なインプットを選択する方法が異なれば、インプットセットも異なるものとなる。私の最終目標はモデルの誤差を最小にすることなので、入力選択の2番目の方法、つまりすべての入力を列挙し、最も誤差が小さくなる入力を選択する方法を選びました。
ステップ5: モデルの誤差や係数を計算する方法を選択する。最も単純な方法はRMS法であり、この方法による線形回帰は非常にポピュラーである。RMS法の問題点は、外れ値に敏感であること、すなわち、これらの外れ値がモデル係数に大きな影響を与えることである。この感度を下げるために、誤差の二乗和の代わりに誤差の絶対値の和を用いることができ、これが最小係数法(LMM)やロバスト回帰につながる。この方法は、線形回帰とは異なり、モデル係数の解析解がない。通常、モジュールは滑らかな/微分可能な近似関数に置き換えられ、解法は数値的で時間がかかります。両方の方法(線形回帰とLNM)を試しましたが、LNMの利点は特に感じられませんでした。DOMではなく、堂々巡り。微分して定常データを得る2段階目で、非線形な正規化操作を加えています。つまり、元の系列x[1]、x[2]、......がある。x[i-1], x[i] ....はまず差分系列 x[2]-x[1] に変換される.x[i]-x[i-1] ....で置き換え, 各差分を sign(x[i]-x[i-1])*abs(x[i]-x[i-1])^u, ただし 0 < u < 1 で正規化する.u=1の場合、外れ値に対して敏感な古典的なRMS法が得られます。u=0のとき、すべての入力系列値が外れ値のほとんどない±1の2値で置き換えられる。u=0.5では、RMSに近いものが得られます。uの最適値は0.5から1の間である。
なお、データを定常型に変換する一般的な方法として、系列の値をこれらの値の対数の差で置き換える、つまりlog(x[i]) - log(x[i-1]) or log(x[i]/x[i-1])があります。私の場合、10k入力の辞書に0やマイナスの値を持つ行が多数あるため、この変換を選択するのは危険である。また、対数には、RMS法の外れ値に対する感度を下げるという利点もあります。 このように、私のsign(x)*|x|^u変換関数は、log(x)と同じ目的ですが、ゼロや負の値に関連した問題はありません。
ステップ6: 新鮮な入力データをフィッティングしてモデル予測値を計算し、前の履歴セクションの線形回帰で求めたものと同じモデル係数を用いてモデル出力を計算する。四半期ごとの経済指標とS&P500の値は、ほぼ同時(3ヶ月以内)に来ることを忘れてはならない。したがって、次の四半期のS&P 500を予測するためには、S&P 500の現在の四半期値と、少なくとも1四半期分(Lag>=1)遅れたエントリとの間にモデルを構築する必要がある。S&P500の1四半期先を予測するには、S&P500の現在の四半期値と、少なくとも2四半期分遅れた入力(Lag>=2)の間でモデルを構築する必要があります。といった具合に。遅延が2より長くなると、予測精度は著しく低下する。
ステップ7: 過去の履歴で予測の精度を確認する。上記のオリジナルの方法(各入力を過去の履歴に書き込み、RMS値が最も低い入力を選び、その入力の新しい値を使って予測を行う)では、ランダム予測やヌル予測よりもさらに悪い結果が得られました。私はこのように考えました。なぜ、過去にうまくフィットする入力が、未来の予測能力が高いのでしょうか?既知のデータに対する最小の回帰誤差に基づくのではなく、事前の予測誤差に基づいてモデルの入力を選択することは理にかなっている。
結局、私のモデルはこのようにステップバイステップで記述することができるのです。
要するに、予測器の選択は、S&P 500の過去の値の予測値のRMSに依存するのである。未来を見通すことはできない。予測値は時間の経過とともに変化しますが、テスト区間の終わりには基本的に変化がなくなります。私のモデルは、2015年第2四半期を予測するための最初の入力として、2四半期遅れのPPICRMを選択しました。1960年~2014年第4四半期の選択したPPICRM(2)入力によるS&P500の線形回帰は以下のとおりです。黒丸は線形回帰です。多色の円は、1960年~2014年第4四半期の過去データです。円の色は時刻を表しています。
S&P500の定常型での予測(赤線)。
S&P500の予測値を生で表示(赤線)。
グラフは、このモデルが2015年第2四半期のS&P500の上昇を予測していることを示しています。2つ目の入力を追加すると、予測誤差が大きくなる。
1 err1=0.900298err2=0.938355 PPICRM (2)
2 err1=0.881910err2=0.978233 PERMIT1 (4)
ここで、err1 は回帰誤差である。2つ目の入力が加わると明らかに減少する。err2 は二乗平均平方根予測誤差をランダム予測誤差で割ったものである。つまり、err2>=1は、私のモデルの予測がランダムな予測より優れていないことを意味し、err2<1は、私のモデルの予測がランダムな予測より優れていることを意味します。
PPICRM=生産者物価指数(粗原料)・再加工用粗原料
PERMIT1 = 建築許可による民間住宅新築戸数 - 1戸の構造物において
上述したモデルは、このように言い換えることができる。1万人のエコノミストを集めて、これからの四半期のマーケットを予測してもらいます。各エコノミストが自分の予想を的中させる。しかし、過去に書いた教科書の数やノーベル賞の受賞数で何か予測を選ぶのではなく、数年待って、彼らの予測を集めるのです。かなりの回数の予測をした後、どのエコノミストがより正確であるかがわかり、他のエコノミストがその正確さを上回るまで、そのエコノミストの予測を信じるようになるのです。
答えは簡単で、年単位のタイムフレームでトレードすること...。
これはジョークなのか?
:-) どうだろう......。分析が年単位なら......何を基準にトレードすればいいのかわからない......。m5では実用的な効果は期待できそうにないですが...。
オプションとして、H4に分析を適用してみると...。
gpwr:
...かなりの回数の予測をした後、どの経済学者がより正確であるかを確認し、他の経済学者がその正確さを追い越すまで、その経済学者の予測を信じるようになる...。
うーん、タレブ氏のブラックスワンと矛盾しているような。ある環境でうまく予測した経済学者が、どうして崩壊を予測できるのだろう?
自分たちが正しいと確信しているのに、なぜそれを修正するのか、だからレミングが熱心に奈落の底に突っ込んでいくのです。
キーンさんのモデルに関する記事はこちらです。
http://keenomics.s3.amazonaws.com/debtdeflation_media/papers/PaperPrePublicationProof.pdf
ただ、最初に断っておきますが、私は彼のモデルは好きではありません。その目的は、経済の循環や崩壊を説明することであり、GDPとしての市場や経済パフォーマンスを 正確に予測することではありません。例えば、彼のモデルは、家計負債の増大が経済の崩壊を招くと予測した。しかし、彼のモデルが正確に予測したのはいつなのか。また、崩壊後に何が起こるかを予測することもできない。2009年にアメリカの市場と経済が回復したにもかかわらず、彼の理論曲線はすべて無限大になり、そこに永久に居座り続けます。だからこそ、彼はこの回復を信じず、日本の20年にわたる大恐慌よりもひどい大恐慌がやってくると主張し、非常に否定的な態度をとり続けているのだろう。ダイナミックな経済モデルは安定させるのが難しく、不安定になるとロックオンされてしまい、もはや未来を予測することができないのです。有名なヘッジファンドが経済顧問としてキーンを雇っているが。